评论丨ChatGPT的进步与局限
贾开(电子科技大学公共管理学院)
在新一代人工智能技术的发展应用史上,我们当前正在经历2016年AlphaGo战胜李世石比赛之后AI的第二次社会性洗礼:ChatGPT的推出使得普罗大众第一次亲身感受到了新一代人工智能的魔力。在文本生成的对话过程中,ChatGPT以其流畅、连贯的逻辑,扮演着一个无所不知的百科全书式人物。以此为起点,ChatGPT正在掀起数字生产生活的新革命。结构化图表的生成、文本的概要陈述、代码的重写修改、数据的收集整理乃至最终的内容成文,作为个人助手的ChatGPT将可能为跨领域用户提供多功能的内容生成服务。同时,逐渐固化的互联网商业业态将迎来新的震荡式重塑:搜索引擎将从内容筛选与排序演化为直接的内容生产,社交媒体将从用户生产内容跃升至人-机共存的新局面,更一般意义上的人机交互也将可能出现体系性的变革与重构。
但并不是每个人都为ChatGPT所折服。在(自)媒体对于ChatGPT铺天盖地的赞誉之外,仍然存在着大量的批评,而这尤以技术社群为主。纽约大学教授加里·马库斯(Gary Marcus)认为,尽管ChatGPT能够生成合乎语言逻辑的内容,但这些内容并不一定是现实本身。也正因为此,ChatGPT可能将进一步放大假新闻(例如社交媒体机器人)的影响,便成为治理层面的深切担忧。
值得注意的是,在ChatGPT推出的前两周,与之非常类似的另一款大型语言模型Galactica就曾被META公司推出,后者定位于科学研究领域的内容生成服务,并能够完成的报告撰写、解决数学问题、生成代码或标注图片等功能。不过仅仅上线三天之后,Galactica就因为其出现回答内容不符合事实等问题而遭受社会批评并被Meta公司下线。事实上,ChatGPT同样存在类似问题,但二者的差异化遭遇却不得不令人深思背后的缘由。相关评论指出,Meta公司近年来深陷种种争议风波,这也导致Meta公司不得不非常谨慎对待内容生成技术的相关争议;与之相比,OpenAI作为一家非营利机构的组织形式为ChatGPT赢得了更大的社会包容度。但即使如此,ChatGPT可能被用于假新闻制造与传播的风险并不会因为发布者的不同而改变,未来的治理风险将始终伴随。
不过另一方面,任何技术创新都存在负面影响已经为人所共识,因而围绕治理风险的担忧可被理解为对于ChatGPT更全面的认识而非对其的否定。与此相比,图灵奖获得者杨立昆(Yann LeCun)的反思则更为深刻。在其看来,大型语言模型只是对人类社会的浅层理解(shallow understanding),其并非通往人类级别智能的正确道路。杨立昆的观点与著名当代科学哲学家迈克尔·斯特雷文斯在《知识机器》一书中提出的浅层解释理论一脉相承。在斯特雷文斯看来,以牛顿体系的诞生为标志,发源于17世纪欧洲的近现代科学革命之所以能在随后四百余年里快速发展,是因为其抛弃了传统科学哲学家试图理解现象本质及其因果关联的努力,转而致力于追求可观察现象的精确描述与推导,以形成能够满足经验性研究的浅层解释。科学方法论的这一转变在带来巨大成功的同时,也自然存在其局限。斯特雷文斯将此总结为对理性原则与人文精神的违背,认为近现代科学在追求专业性范式的同时也放弃了人类社会的开放性和社会性。
从斯特雷文斯的理论出发,我们便也不难理解杨立昆的基本观点。ChatGPT是基于大量文本数据训练而成,但文本作为人类语言表达的载体,其本身只是一种窄带宽(Low-bandwidth)的信息传递方式。缺乏环境信息的支撑,独立的文字或语句将造成诸多的模糊与混乱。与之相比,人类的交流形式更为多样而丰富,我们本质上共享的是一套非语言机制,即在文本表面之下更多依靠符号、表情、姿态及其他环境性因素来传递真实信息。也正是在此意义上,ChatGPT才应被定义为浅层革命,进而体现出其进步性与局限性。
总而言之,我们当前无论是惊讶其通用性功能,还是笑话其一本正经的胡说,ChatGPT的未来演化之路才刚刚开始。在此过程中,更为辩证、冷静地观察和理解高速激进的技术创新与应用逻辑,可能比简单的支持与反对更为重要。
ChatGPT正在以其强大的人工智能语言处理能力火爆全网。(图片由摄图网提供)