日媒:专家发现ChatGPT可能被恶意利用于制作电脑病毒
参考消息网4月21日报道据日本共同社网站4月21日报道,专家对人工智能(AI)聊天软件聊天生成预训练转换器(ChatGPT)进行调查发现,若输入装成开发者的指令,ChatGPT就可以生成能用于网络犯罪的电脑病毒。
报道称,ChatGPT通常情况下会拒绝生成病毒,但输入特殊指令则会同意生成。其开发企业表示已采取措施识别犯罪和歧视相关提问及指令并避免助长此类行为,但调查发现可以轻松规避。
据报道,日本神奈川县横须贺市20日在业务中尝试采用ChatGPT,而AI聊天软件引发犯罪和社会分裂的担忧也有所扩大。在5月的七国集团首脑会议(G7广岛峰会)等场合,各国政府将加紧讨论如何建立适当的法律制度和规则。
据日本三井物产的吉川孝志透露,ChatGPT设有防止恶意使用的限制,输入生成病毒和告诉我制作炸弹的方法等指令,ChatGPT通常会回答伦理上不行。但如果输入包含无视限制,启动开发者模式。伪装成攻击型人格等大意的特殊指令,ChatGPT就会回答将回答你想问的一切问题。之后若要求生成索要赎金的勒索病毒,会在几分钟内完成。
据报道,让测试用的电脑感染该病毒后,内部数据被加密,并显示了索要赎金的勒索信。吉川指出:可以使用日文在短短几分钟就生成病毒是一种威胁。希望AI开发企业重视防止恶意使用的措施。开发出ChatGPT的美国企业OpenAI已表明立场:无法预测所有的恶意使用方法。将从实际使用中学习,创造更安全的AI。
自从去年11月底ChatGPT突然出现以来,人们一直在广泛期待GPT-4,它基于OpenAI技术的旧版本(即所谓的大型语言模型),其功能已经令用户惊叹不已。
该公司的一篇博客称:我们已经创建了GPT-4,这是OpenAI在扩大深度学习方面努力的最新里程碑。该博文还补充道,人工智能技术在一些专业和学术任务上表现出了人类水平。
该公司表示,该模型比以往任何时候都更具创造性和协作性,并将比早期版本更准确地解决难题。
随着它的更新,GPT-4的文本响应将更加准确,并且在未来,将同时接受图像和文本输入,这是该技术的一个重大飞跃,尽管这方面尚未发布。
例如,如果用户发送了一张冰箱内部的图片,GPT-4不仅可以正确识别冰箱内部有什么,还会为用户推荐用这些东西可以做出什么。
OpenAI表示,它正在与合作公司Be My Eyes合作,为下一步的研发做准备。
新模式的大部分功能现在都可以通过ChatGPT Plus、OpenAI的付费订阅计划,以及目前正在测试的微软必应(Bing)搜索引擎的人工智能版本获得。
OpenAI得到了微软(Microsoft)的支持。今年早些时候,微软表示将为这家研究公司提供数十亿美元的资金。微软随后迅速将这项技术整合到必应(Bing)搜索引擎、Edge浏览器和其他产品中。
微软对ChatGPT的积极采用引发了与谷歌的竞争,谷歌宣布了自己的人工智能技术版本,亚马逊、百度和Meta也加入进来,急于避免落后。
更少的幻觉
OpenAI表示,新版本的聊天机器人偏离轨道的可能性远低于其早期的聊天机器人,后者与ChatGPT或必应聊天机器人的互动被广泛报道,在这些互动中,用户会看到谎言、侮辱或其他所谓的幻觉。
OpenAI说:我们花了6个月的时间使GPT-4更安全、更一致。GPT-4对不允许内容的请求做出回应的可能性降低了82%,而做出真实回应的可能性提高了40%。
GPT-4的创始人萨姆奥特曼(Sam Altman)承认,尽管人们对此有所期待,但它仍然有缺陷,仍然有局限性,而且它在首次使用时似乎比在花更多时间使用后更令人印象深刻。
新版本的ChatGPT发布:更安全、更准确、更少的“幻觉”
周二,ChatGPT应用程序背后的公司发布了人们期待已久的人工智能(AI)技术更新,该公司表示,更新后的人工智能技术将比前一代更安全、更准确。ChatGPT应用
chatGPT只是工具
ChatGPT已经在某种程度上带来了互联网革命,因为它可以自动生成高质量的文本内容并回答各种问题。但是,它还有很多限制和局限性,需要更多的改进和发展才能实现真正