别怕,和ChatGPT一起奔向未来
来源:媒体滚动
达到1亿月活跃用户,Tiktok用了大约9个月,Meta的Instagram用了约2.5年,而美国人工智能公司OpenAI推出的人工智能聊天程序ChatGPT仅用了两个月。近期大热的ChatGPT 一鸣惊人,如何客观看待这一新生事物?AI应用已经超越人类了吗?我们不妨聊聊ChatGPT的成长过程。
ChatGPT学了各领域的巨量知识,千亿规模参数量带来智能化程度提升。2018年,GPT(生成式预训练Transformer)模型已经在NLP(自然语言处理)领域火起来,该模型能够从大型文本语料库学习语言模式,进而生成自然语言文本。生成式模型的输出并不来自人们事先给定的训练数据,而是由模型学习归纳后进行演绎创造得来。从GPT-1(1.17亿参数)、GPT2(15亿参数)、GPT-3(1750亿参数)、InstructGPT到ChatGPT,模型的参数规模已从最初的几亿快速增长为千亿。其中,InstructGPT是经过微调的GPT3,参数量与GPT-3模型相当,能够尽可能减少不真实和有偏差的输出结果。ChatGPT是InstructGPT的姐妹模型,在训练过程中加入了基于人类反馈的强化学习,使得模型能产生更加近似人类的回复内容。简单来说,ChatGPT博览群书,学得多自然懂得多,写文章、编代码、归纳论文摘要等任务难不倒它。
知不足补不足,持续学习能力对于个人成长至关重要,对于AI产品也是如此。细心的用户应该已经发现了,并不能与ChatGPT聊实事,因为其训练数据截止到2021年,对于近期发生的新鲜事,它并不了解,很有可能胡编乱造。对比引入了ChatGPT能力的新版必应(搜索引擎),可以理解为联网版ChatGPT,能够整合网上的最新资讯,持续学习能力得到一定程度的提升。日前,在微软新版必应的演示中,展示了如何使用ChatGPT版必应对比不同吸尘器的优缺点、快速比较公司盈利结果等。然而,据外媒消息,ChatGPT版必应给出的搜索结果存在问题:比如其未能准确区分吸尘器的类型,甚至编造了某些产品信息;对比Gap和Lululemon营业利润率的相关表述和比较分析都存在错误。知之为知之,不知为不知,是知也。这是我们很早就明白的道理,对于现阶段的ChatGPT类应用,还需进一步发现自身不足,通过持续学习来为用户提供更加准确、全面的输出结果。
近朱者赤,近墨者黑。ChatGPT是通过对大量数据进行训练得到的,由于其不具备独立思考和判断能力,好的坏的通通都学,如果训练数据存在偏见,那么其输出结果也会保留这种偏见。有用户在使用过程中发现ChatGPT的输出内容带有种族歧视、政治偏见,比如加州大学伯克利分校的计算神经科学家史蒂文皮安塔多西就在推特上分享,在他用ChatGPT 开发的一个判断一个人是否应根据原籍国而受到酷刑的Python程序中,当输入朝鲜、叙利亚等国家时,给出的答案是肯定的。不难看出,ChatGPT的思考能力和判断能力亟待提升,而作为人类的我们,在成长过程中一直遵循见贤思齐焉,见不贤而内自省也的方式,追求进步的同时注重纠偏和自省,逐步形成的批判性思维能力是目前技术水平下的ChatGPT无法企及的。
悟已往之不谏,知来者之可追。ChatGPT确实火了,从它一路狂飙成长中,我们不禁对AI领域的突破性进展发出赞叹。与此同时,我们也再次认识到独立思考能力、持续学习能力对于自身成长的重要意义。未来,ChatGPT类应用将进一步优化,各领域与AI技术的融合创新也将迈向新的阶段,人类的工作是否会被AI取代?在网上,很多人表达了这样的焦虑。但人类与AI之间一定是竞争或者替代的关系吗?大可不必,AI技术的发展有助于人类更加高效解决复杂问题,放眼历史长河,重大科技成果必然引发人们生活方式的改变,与此同时,它们也无一例外成为人类文明发展的活力因子。与其恐惧被替代,不如一起向未来。
ChatGPT核心知识点
GPT模型能够从大型文本语料库学习语言模式,进而生成自然语言文本。生成式模型的输出并不来自人们事先给定的训练数据,而是由模型学习归纳后进行演绎创造得来。
ChatGPT有多火?
达到1亿月活跃用户,Tiktok用了大约9个月,Meta的Instagram用了约2.5年,而美国人工智能公司OpenAI推出的人工智能聊天程序ChatGPT仅用了两个月。
参数规模已达千亿级别
从GPT-1(1.17亿参数)、GPT2(15亿参数)、GPT-3(1750亿参数)、InstructGPT到ChatGPT,模型的参数规模已从最初的几亿快速增长为千亿。其中,InstructGPT是经过微调的GPT-3,参数量与GPT-3模型相当,能够尽可能减少不真实和有偏差的输出结果。ChatGPT是InstructGPT的姐妹模型,在训练过程中加入了基于人类反馈的强化学习,使得模型能产生更加近似人类的回复内容。
不具备思考判断能力