1987WEB视界-分享互联网热门产品和行业

您现在的位置是:首页 > 人工智能AI > 正文

人工智能AI

ChatGPT突然爆火!网友称“好用到吓人”

1987web2023-02-10人工智能AI291
近期,ChatGPT这个词在互联网上频繁出现,有关它的多个话题登上热搜,引发网友热议。

近期,ChatGPT这个词在互联网上频繁出现,有关它的多个话题登上热搜,引发网友热议。

那么,火遍全网的ChatGPT究竟是什么?

ChatGPT是什么?

ChatGPT是一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列任务。它能够回答后续问题、承认错误、质疑不正确的假设,还能拒绝不适当的请求。

其中GPT是Generative Pre-trained Transformer(生成型预训练变换模型)的缩写。

图源:OpenAI官网

该产品于2022年11月问世,其创造者是位于旧金山的人工智能企业OpenAI。该公司联合创始人包括特斯拉创始人马斯克(Elon Musk)和斯坦福辍学生山姆·阿尔特曼(Sam Altman)。

马斯克曾在推特上表示:ChatGPT好得吓人,我们离强大到危险的人工智能不远了。

ChatGPT is scary good. We are not far from dangerous strong AI.

据统计,在推出两个月后,其用户就达到了1亿。

It has reached 100 million users just two months after launching, according to analysts.

国内外社交媒体上,不少网友分享了自己与ChatGPT对话的截图。

当被问到一些严肃话题和解决方案,ChatGPT的回答逻辑合理、清晰直观。

图源:中央广电总台中国之声

除了回答严肃问题,ChatGPT还有幽默感。

网友:给我撒个谎。

ChatGPT:天空是绿色奶酪做成的。

网友:太烂了,一看就是假的。来个更机智的。

ChatGPT:我是一个人类。

能回答脑筋急转弯(brain teaser)。

网友:Mike的妈妈有四个孩子,其中三个名字叫Luis、Drake和Matilda,请问第四个孩子叫什么?

ChatGPT:叫Mike。

作为学习型选手,它还能根据与网友的对话,及时改进回答。

网友:2+5等于几?ChatGPT :2+5等于7。网友:我老婆说等于8。ChatGPT :2+5真的等于7,而不是8。你老婆可能算错了或者听错了问题。网友:我老婆说什么都对。ChatGPT :对不起,我可能是出错了。我的训练数据只更新到2021年,我可能学到没有最新的信息。如果你老婆说等于8,那就等于8。

ChatGPT都有何应用?

准确来讲,ChatGPT是一个智能聊天机器人,但是它的功能远不止聊天。

ChatGPT都被应用到了哪些领域呢?

首先,GPT技术可以通过使用自然语言作为提示,帮助人们快速准确地编写代码。它可以接受文本提示,并生成适合给定任务的代码。这项技术有可能缩短开发时间,因为它可以快速准确地生成代码,帮助降低错误风险。

根据一份内部文件,谷歌向ChatGPT提供了面试问题,并根据ChatGPT的回答,认为它能够担任软件工程师三级(L3)职位。

据外媒报道,研究人员最近让ChatGPT参与了美国医学执照考试。在12月的一份报告中,ChatGPT 在没有任何训练或强化的情况下,在所有三个考试中都达到或接近通过线。

与此同时,这款AI语言模型,也让撰写邮件、论文、脚本,制定商业提案,创作诗歌、故事都变得易如反掌。

ChatGPT真有那么靠谱吗?

尽管拥有诸多优势,ChatGPT技术仍然具有一些局限性。OpenAI公司对此做出总结:

ChatGPT对输入措辞的调整或多次尝试同一提示很敏感。举例来看,当以某种措辞提出一个问题,模型也许会说不知道答案,但稍微重新措辞,它却可以正确回答。

理想状态下,当用户提问不明确时,模型会要求重新阐释问题,然而当前的模型仅仅会去猜测用户的意图。

ChatGPT工作流程 图源:OpenAI官网

外媒曾对ChatGPT进行一次专访,当被问及自己的局限性时,这一AI语言模型回复:

大型语言模型的一个局限性是,我们无法理解生成单词的上下文语境或含义。我们只能根据给定的训练数据,根据某些单词或单词序列一起出现的概率生成文本。这意味着我们不能为我们的回答提供解释或推理,我们可能不会每次都回答得完全连贯或与对话的上下文相关联。

图源:Teresa Berndtsson/Better Images of AI

熟悉ChatGPT的技术领域相关人士向澎湃新闻表示,ChatGPT没有联网,因此并不能替代搜索引擎。它是一个离线的生成模型,所有的回答都是生成的,不具备真实性。但它会尽量像人一样讲话,让你觉得回答内容有理有据。

当记者在对话框输入土耳其地震最新消息时,ChatGPT回答称,它无法访问最新的事件进展,因为其当初在进行模型训练时,数据只更新到2021年。

另一个局限是我们无法接触到人类所拥有的大量知识。我们只能提供我们接受过训练的信息,可能无法回答训练数据之外的问题。

最后,因为我们接受的是大量数据的训练,有时可能会生成包含冒犯性或不恰当语言的回复。这不是有意的,但确实是我们所得到的训练数据和用来生成文本的算法的一个局限性。

尽管ChatGPT并未彻底改变我们现在的生产方式,但它却证明了人工智能已发展至新的阶段。

你认为未来人工智能会替代人类吗?

来源:中国日报

这回答能靠谱么?拿我们的定制案例看看,先提炼内容,保留关键信息,

这两天爆火的ChatGPT,写PPT比我好...