ai写文章,现在是否靠谱?
这两年在网络上就有文章生成器之类的东西,有的还是在线生成。只要输入主题词,几秒钟便可自动生成几百、几千字的文章、诗歌或歌词等等。这并不是什么新鲜的事情。而且,编程难度也是有限的,且超乎想象的简单。学python的知道,调用几个现成的库,这个程序量并不大。
如果为了凑字数、提供点创意、开拓一下思路,这些东西无可厚非。有时候它的确能激发出一种灵感。
上面两图是笔者随意写的主题词吃辣椒的好处在不同的在线文章生成器中形成的两篇文章,至少读着也是通的。这种软件或者在线平台这两年就已经有了,而且这是国内的,不用考虑翻墙、国外注册等麻烦问题。这两个软件不是外国产的。说这的意思是,这东西现在并不是发明创造,已经是在发展中。
最近这东西因为国外的炒作,在国内也被炒作得火热。西方的炒作手法,还是有值得学习的地方,与我们闷头搞发展有些不同。
现在的问题是:这东西产生的内容如果直接被应用,是否靠谱?这是个问题。
最起码的隐忧是:网络上的小文章如果是这个机器写的,我们是否能识别出来?据不可靠的网络传言看,现在可以分辨出来的比率不会超过50%。那么,你看的东西,有多大的概率是被人工智能忽悠了?这是未知数。(注:这篇文章非电脑生成。)
机器学习的优势在哪?缺点在哪?
基于编程原理考虑,机器先基于主题词在网络上进行搜索,找到相关类似文章,并对细节内容进行机器学习。之后,再进行重新组织,按语法原则进行编排,形成结果。
那么,它学的内容如果有倾向性,它写出来的东西也是有倾向性的。并不代表一定是正确答案或者中肯的答案。就像我们在网络上搜索的内容,正确与否是需要自己判别的,而机器学习并不判断正确与否。面对倾向性内容,只会推波助澜。
何为倾向性内容?笔者曾经在学习python的过程中,搞了一个古诗词的小实验,在《唐诗三百首》中随机找了一些诗词,大约三万字,从中寻找高频词汇。结果就发现:如果不加选择的学习,往往学写出来的诗歌的情调会很灰暗。
从文化角度谈谈文人的坏毛病之一动不动就忧郁了,这毛病哪来的?
上图是这三万多字的诗歌汇总的高频词。学多了这种内容,也便潜移默化中把忧郁也学来了。
现在电脑假设也学的是这三万字的内容,那么它写诗的风格就会像林妹妹了。
这就是倾向性内容的一个小例子。
倾向性内容当然也包括谣言、造假、观点主观或客观地偏向某个方向等等。如果电脑学的是这类内容,写的东西的内容也会有倾向性。一些人把人工智能想象为大智者,以为什么问题它都会给出正确答案,这种想法本身就有问题。它只会给你基于索引内容重新再造的符合程序逻辑的答案,至于答案的观点正确与否是另外一回事。它很博学,但是它也可以不学无术,并且表达的很正经,不露痕迹。
如果它学习的内容仅仅是藏经阁的佛经,它有可能成为大师。你不懂,才是懂了,酷似懂玄学的大师。
基于这种人工智能编程的逻辑基础,这东西如果搞编程,的确会有优势,因为机器学习所学的编程相关的内容本身就是规范化、标准化的内容,垃圾内容少一些,更不会有文学性的曲笔、反话、夸张之类的内容,也便不容易学坏。这方面它的表现现在看也是可圈可点的,已经相当于初级程序员的水平。这个方向也许会有进一步发展的潜力。