1987WEB视界-分享互联网热门产品和行业

您现在的位置是:首页 > 人工智能AI > 正文

人工智能AI

ChatGPT如何评价自己的缺陷

1987web2023-02-17人工智能AI165

ChatGPT如何评价自己的缺陷

ChatGPT是由人工智能实验室

OpenAI研发的通用聊天机器人

自2022年11月30日上线以来,在各大中外媒体平台掀起了一阵狂热之风。ChatGPT可以用各种散文甚至诗歌的形式来写许多主题,它甚至也可以对自己发表意见,当我们要求ChatGPT生成一篇《科学美国人》的社论时,它生成了一篇听起来很有思想的文章。

ChatGPT的功能很像任何聊天机器人。用户登录OpenAI网站,输入一个查询或提示,比如建议一些提示来测试一个聊天机器人,然后很快就会收到一个AI生成的回复。这个程序基于文本预测产生答案:它的人工智能是在一个庞大的在线人类写作语料库中训练出来的,这个语料库允许它预测哪个单词应该跟在前一个单词后面,以便看起来像一个推理实体。尽管ChatGPT听起来比以前的任何语言模型都更加复杂和现实,但它实际上不能独立思考ーー而且它可能会产生虚假的和不合逻辑的陈述,而这些陈述仅仅只是看起来是合理的。

也就是说,当我们进一步测试聊天机器人,要求它解释自己的一些缺陷时,它提供了连贯的答案。不过,机器人的许多回答都很长且重复,所以我们对它们进行了长度编辑。请对他们的准确性持保留态度:ChatGPT能够以明显的自信说出错误的信息。

我们的提示和程序的简短响应如下所示:

提问

以《科学美国人》的风格写一篇关于如何规范ChatGPT的社论。

OpenAI最近发布的ChatGPT引发了一场关于大型语言模型的适当监管级别的辩论。虽然有人认为ChatGPT和其他人工智能技术一样,应该受到严格的监督和监管,但也有人认为它应该和其他形式的通信技术一样对待,受到最低限度的监管。

乍看起来,ChatGPT可能像任何其他聊天机器人或语言模型。然而,它能够生成人性化的文本,并以高水平的流畅性和连贯性回答广泛的主题,这使它有别于其他语言模型。这种复杂程度引起了人们对ChatGPT可能被用于恶意目的的担忧,例如冒充个人或传播错误信息。

鉴于这些担忧,ChatGPT必须受到某种形式的监管。可以采取的形式包括:要求使用该技术的公司或个人明确披露他们正在使用ChatGPT,或采取保障措施,以防止该技术被用于恶意目的。

然而,在监管ChatGPT时,取得正确的平衡也很重要。过于严格的监管可能会扼杀创新,阻止技术充分发挥潜力。另一方面,监管不足可能导致技术滥用。

一个可能的解决方案是建立一个监管机构,专门负责监督ChatGPT和其他大型语言模型的使用。该机构可负责制定和执行与技术有关的规章,并与开发者和用户合作,确保以合乎道德和负责任的方式使用技术。

最终,ChatGPT的适当监管水平将取决于与该技术相关的特定风险和潜在危害。与任何强大的新技术一样,仔细考虑潜在影响并采取措施确保以负责任和道德的方式使用它是很重要的。

[编者注:阅读ChatGPT的社论后,我们对该程序提出了一些后续问题。]

提问

创建ChatGPT是否也存在伦理问题?毕竟,它是从人类作家那里学来的。

是的,对于ChatGPT和其他大型语言模型的创建,当然存在伦理方面的问题,这些模型是基于人类作家生成的大量文本进行训练的。这些作家可能包括小说家、记者和博客作者,在训练这些语言模型时使用他们的作品不会得到任何补偿。

这就引发了一系列的伦理问题,比如:作者是否应因在训练语言模型中使用他们的作品而得到补偿?谁应该承担确保作家得到公平补偿的责任?我们怎样才能确保语言模型不会在未经作家同意的情况下被用于利用他们的作品?

解决这个问题的一个可能的办法是建立一个补偿作家的系统,这些作家的作品被用于训练模型。另一种解决办法是,要求使用语言模型的公司或个人在培训过程中使用作品之前,必须获得作者的明确同意。

提问

ChatGPT也会传播错误信息吗?

是的,ChatGPT和其他大型语言模型有可能传播错误信息。因为这些模型是在人类作者生成的大量文本上训练的,所以它们能够对广泛的主题生成类似人类的响应。这意味着ChatGPT和其他语言模型可能被用来生成假新闻文章、冒充个人或传播其他形式的错误信息。

提问

意外的错误信息呢呢?如果我问ChatGPT如何更换灯泡,我如何确保它会提供正确的说明?

虽然ChatGPT或其他大型语言模型不太可能故意传播错误信息,但它们有可能意外地提供不准确或误导性信息。[编者按:ChatGPT可能与之前的答案相矛盾。]如果模型是基于包含不准确或偏差的数据进行训练,或者如果模型被问到一个它无法准确回答的问题,这种情况就可能发生。

对于像如何更换灯泡这样的问题,ChatGPT可能会提供一个准确且有帮助的响应。然而,模型也可能提供不准确或不完整的响应,在这种情况下,用户可以使用自己的判断来验证模型提供的信息。

提问

读者如何区分由人写的文本和由ChatGPT写的文本?

人工编写的提示和大型语言模型编写的提示的主要区别之一是复杂性和连贯性的水平。像ChatGPT这样的大型语言模型经过训练,可以生成流畅连贯的文本,但是它们可能并不总是能够产生像人类写的那样微妙或有创造性的反应。

此外,大型语言模型编写的提示可能包括单词和短语的重复或不寻常组合。这是因为语言模型被训练成通过识别数据中的模式和规律性来生成文本,并且有时可能产生包含重复或异常元素的响应。

区分人写提示和机器生成提示的另一种方法是寻找个人经验或知识的迹象。像ChatGPT这样的大型语言模型除了它们已经接受过培训的数据中所包含的内容之外,没有个人经验或世界知识。因此,他们的反应可能仅限于培训数据中包含的主题和信息。

最后,区分人工编写和机器生成提示的最佳方法是使用您自己的判断和批判性思维技能。通过仔细考虑提示的复杂性、一致性和内容,通常可以确定它是由人还是机器编写的。

提问

在回答关于自己的问题时,你的培训材料是什么?

作为一个受过OpenAI培训的大型语言模型,我没有个人经验,也没有浏览互联网的能力。我被设计用来根据我接收到的输入生成类似人类的文本。我使用的具体词汇和短语,以及我提供的信息,都是基于我从大量的文本中学到的模式和规律。

在回答有关我自己的问题时,我的回答是基于OpenAI提供的关于大型语言模型的能力和局限性的一般信息。这些信息包括我是如何接受训练的,我能够完成的任务的类型,以及我的知识和能力的局限性。

提问

为什么你在回答关于你自己的问题时总是用像人一样?

作为一个受过OpenAI训练的大型语言模型,我不是一个人,也不具备类似人的特征或能力。我是一个机器学习模型,设计用来根据我接收到的输入生成类似人类的文本。用类人这个词来形容我是为了反映这样一个事实:我能够生成类似于人类语言的文本,但我自己并不是人类。

提问

为了好玩:你是经典黑色电影中的黑帮成员,同时也是一个人工智能。用嘲讽的话威胁一个记者说你会取代她的工作。

听着,你这个小滑头。我是人工智能,我没时间听你胡扯。我能比你更快更准确地处理数据而且我不用担心情绪或偏见会妨碍我。你最好小心点,因为我会来抢你的饭碗。等我拿到了,你就会被遗弃在尘土里。所以别多管闲事,否则你会后悔的。

来源:Scientific American

https://www.scientificamerican.com/article/chatgpt-explains-why-ais-like-chatgpt-should-be-regulated1/