1987WEB视界-分享互联网热门产品和行业

您现在的位置是:首页 > 人工智能AI > 正文

人工智能AI

想刁难ChatGPT?没想到破防的是小编!权威专家科普来了!

1987web2023-02-11人工智能AI216
中新网2月11日电(记者孟湘君)这几天,ChatGPT可以说是火爆全宇宙!

中新网2月11日电 (记者 孟湘君)这几天,ChatGPT可以说是火爆全宇宙!

大家想出各种各样奇奇怪怪的问题,尽情投喂给这款聊天机器人,看它如何给出或专业准确的回复,或驴头不对马嘴的搞笑答案。

记者也出了些题让ChatGPT作答,一起来看看它的小作文写得怎么样吧!没想到,其中一篇,记者的小编同事被戳中痛点,破防了!

先看第一个:

对于特定采访对象,ChatGPT贴心设计了有针对性的提问,可以说基本达到了记者们的应有水平吧。

来看下一个题目:

ChatGPT是懂新闻行业的!这描述也太生动贴切了吧,简直人间真实!

它还对从事新闻工作的意义进行了升华,有小编看完后对记者表示,自己顿感肩头责任重大,看着看着,不禁眼眶一热,破防了!(强行与AI共鸣)

再来看几个:

从写工作周报、写求职信、回答公务员考试试题的情况来看,ChatGPT的表现还行。那么,它的工作原理是怎样的?

根据OpenAI介绍,相比之前的GPT模型,其对ChatGPT采用了全新的训练方式,即为一种从人类反馈中强化学习的训练方式。

这意味着,用户输入信息越多,ChatGPT深度学习、持续改进的机会也就越多,对人类语言的理解和反刍,也会越来越深刻。换言之,是广大用户义务帮OpenAI来教自家的娃。

对此,中新网记者专访清华大学国强教授、智能产业研究院(AIR)首席研究员聂再清,对ChatGPT的创新性、特点以及应用前景等,进行深入解析。

中新网:

ChatGPT究竟是一个什么样的产品?

聂再清:

ChatGPT本质上是一个基于统计的语言模型。当然,它现在还只是一个语言模型,以后应当会逐步发展到多模态,比如为图片(拟出)对应文字,给出对图片的理解等。与人聊天只是它能力的一方面,更多地还是内容生成的能力,包括未来可能更多地把它运用到写作上。

OpenAI官网介绍ChatGPT为一种优化对话的语言模型。图片来源:OpenAI官网截图

中新网:

大家或多或少接触过国内已有的一些语音聊天机器人,比如扫地机器人、语音智能助手等,ChatGPT与这类机器人相比,有哪些区别?

聂再清:

之前的聊天机器人已经能够通过语音交互,帮用户完成很多重复性的工作。这类机器人在业界比较成功的应用,是运用基于任务型的对话,通过意图理解、槽值填充,把问题参数抽出来,然后去回答用户的问题,比如智能客服;或帮用户完成一个智能家居的操作,比如AIoT语音助手。

它们更多是属于一些封闭域内任务完成型的机器人,通过对话真正去执行某些特定领域的功能,首先得把事情做对,才能获得用户信任。这是这类机器人最关键的一项能力。

ChatGPT更多地则是实现开放域的对话、输出写作内容等。跟以前的聊天机器人比,ChatGPT最让人印象深刻的就是能用像模像样的人话来回答几乎任何领域的用户问题,并对上下文有一定程度的理解。

资料图:美国企业家埃隆·马斯克。

中新网:

一些人以 从0到1、划时代的革命性突破 来形容ChatGPT, 美国富豪埃隆·马斯克也发文称ChatGPT好得吓人。您认为ChatGPT有那么厉害吗?其创新性体现在哪些方面?

聂再清:

ChatGPT在算法层面一个比较重要的创新,就是把强化学习引入到大模型的训练和使用上。之前实现开放域对话的最大困难,在于用户输入的话题各种各样,任务空间太大,很难有足够的监督信号拿来训练。

那么,如今ChatGPT通过利用人类反馈信号学习到的奖励模型(reward model),来为任意一个问题自动估算监督信号,充分利用强化学习的尝试探索(exploration)能力来解决开放域任务空间太大的挑战。这是一个比较好的创新应用。它在回答开放域问题时基本上能做到逻辑上比较通畅,句式上也像模像样,这不是很容易就能做到的。

同时ChatGPT用到的GPT3.5,作为一个基础语言模型的质量也是非常高的。这需要大量的数据预处理工作,需要把各领域的语料整理好喂进大模型,在训练过程中不断积累能力,才能产生一个如此高效的基础语言模型。

另一个比较重要的能力,就是ChatGPT能拒绝回答一些它判断为不适合回答的问题,懂得拒绝。实际上之前一些聊天机器人在设计时,也会谨慎处理一些比较敏感的问题,以及跟人类主流价值观不契合的内容。ChatGPT也在不断提升这种能力,防范生产出敏感或有偏见的内容。

ChatGPT的试用页面上,标注了偶尔可能输出错误、有害、有偏见信息;对2021年后的世界认知有限等说明。

中新网:

大家体验后发现,ChatGPT不是完美的,还是会出错,也就是一本正经地胡说八道。您认为它需要改进的方面有哪些?

聂再清:

ChatGPT进行开放域聊天最大的好处,是它什么话题都接得住,能一直聊下去,有连续性。但最大的坏处是,有时用户无法判断它是否正确。如果提问人对问题答案不了解的话,会觉得它答得不错;但对一些不常见,提问人又知道答案的问题,就会发现ChatGPT有可能用一本正经的口气,编出了错误答案。

因此,不看具体知识点的话,ChatGPT似乎回答得很专业。但它目前难以真正理解和回答开放域里有具体知识点的问题,在处理开放域的问题上实际上还是基于概率,基于前一个值来生成下一个值。要通过图灵测试,还要继续努力。

中新网:

ChatGPT是把所有输入给它的信息复制、堆砌起来,还是能生成原创内容?它有创造力吗?

聂再清:

可以视为ChatGPT是在搞创作,因为这是它经过大量学习后,基于概率自己产生的内容。让它写一封邮件、一首诗,也可以输出看上去长得很像用户所要求的东西。

但比如去写论文、搞数学论证、去做实验并得出结果,它现在应该还没有那么强大,还不能系统地提出具有创新性的观点,但是它输出的一些内容可能会对科研工作带来一些启发。

在谁可能取代自己这个问题上,ChatGPT列出了一些对象,中国企业华为的产品上榜。

中新网:

您认为中国需要拥有类似于ChatGPT这样,属于自己的语言大模型吗?

聂再清:

我认为我们特别有必要去构建像ChatGPT这样一个大的语言模型,中国需要有自己的这类产品。ChatGPT不光可以聊天、帮助写作,也是很多下游人工智能任务的基础模型(foundation model)。一些中国企业已经在跟进,相信接下来我们国家会出现类似的模型。但是具体功能和质量能否超越ChatGPT,需要等发布以后才知道。这需要我们的企业在资源和人才投入上有耐心,具备长远的眼光,不能太注重短期的商业回报。

当然,我们也不需要每个企业都做一个ChatGPT,造成资源浪费。

中新网:

一些观点认为,ChatGPT将来会取代部分人的职业。您怎么看?

聂再清:

我认为,虽然有一些模板化、重复性的写作可以被ChatGPT取代,但应该说它还是作为人类的助手更合适。比如帮助用户在从事写作、写代码、商业提案、广告文案设计、翻译等工作时,可以大幅提高他们的工作效率。

它应当被用作一种提高效率的工具,成品最终还是要人类来把关和确认。而且如果出了错,责任应该还是落到具体的人身上。

中新网:

ChatGPT这样的语言交互类产品,是否存在隐私泄露的风险?

聂再清:

用户向ChatGPT提问的问题,本身就带有信息量,向它输入信息,不排除有一定的信息泄露风险,包括信息跨境流动问题。这取决于这个产品的研发人员、运营人员、数据管理者等,是否对相关信息进行了妥当处理,不让个人隐私等外泄,或用于其他用途。如果有问题,责任应由他们承担。

看完专家的权威分析,再来看看我们还给ChatGPT布置了哪些有趣的作业吧!

如果有人发来这样一封情书,你会心动吗?

看到小帅、大壮、小美几个名字,你的耳畔有没有自动响起一段充满悬疑感的音乐?

这首诗说明,对于博大精深的中华文化,ChatGPT还有很多东西要学习……

看着这跌宕起伏的小说情节,只能说ChatGPT尽力了!

虽然知道ChatGPT是语言模型,记者还是想逼它画画,但是直接让它画,它回答做不到,最后记者用打印指令,让它画出了一只数码小猫,送给大家。

ChatGPT,和你想象中的一样吗?(完)