1987WEB视界-分享互联网热门产品和行业

您现在的位置是:首页 > 人工智能AI > 正文

人工智能AI

人工智能生成代码的巨大威力和潜在危险

1987web2023-07-06人工智能AI178

2021 年 6 月,GitHub 宣布了 Copilot,这是一种由 OpenAI 文本生成技术提供支持的计算机代码自动完成功能。它提供了生成式人工智能在自动化有价值的工作方面的巨大潜力的早期一瞥。两年过去了,Copilot是该技术如何承担以前必须手工完成的任务的最成熟的例子之一。

本周,GitHub发布了一份报告,该报告基于近一百万付费使用Copilot的程序员的数据,展示了生成AI编码的变革性。平均而言,他们接受AI助手的建议的时间约为30%,这表明该系统非常擅长预测有用的代码。

上面的引人注目的图表显示了用户在使用该工具花费更多时间时如何倾向于接受更多 Copilot 的建议。该报告还得出结论,人工智能增强的编码人员看到他们的生产力随着时间的推移而提高,基于之前Copilot研究报告接受的建议数量与程序员生产力之间的联系。GitHub的新报告称,经验不足的开发人员的生产力提升最大。

从表面上看,这是一幅令人印象深刻的新技术迅速证明其价值的画面。任何提高生产力和提高低技能工人能力的技术都可能对个人和更广泛的经济都是福音。GitHub继续提供一些粗略的猜测,估计到2030年,人工智能编码可以使全球GDP增加1.5万亿美元。

但是GitHub的图表显示程序员与Copilot的联系让我想起了我最近在与伊利诺伊大学厄巴纳-香槟分校教授Talia Ringer聊天时听到的另一项研究,关于程序员与Copilot等工具的关系。

去年年底,斯坦福大学的一个团队发表了一篇研究论文,研究了使用他们构建的代码生成AI助手如何影响人们生成的代码质量。研究人员发现,获得人工智能建议的程序员倾向于在他们的最终代码中包含更多的错误,但那些能够访问该工具的人倾向于认为他们的代码更安全。可能既有好处也有风险,与人工智能一起编码,Ringer说。更多的代码不是更好的代码。

当你考虑编程的本质时,这个发现并不奇怪。正如克莱夫·汤普森(Clive Thompson)在2022年《连线》杂志的一篇专题中写道,Copilot似乎很神奇,但它的建议是基于其他程序员工作中的工作模式,这可能是有缺陷的。这些猜测可能会产生非常难以发现的错误,尤其是当您被该工具通常的好坏所迷惑时。

我们从其他工程领域了解到,人类可能会过度依赖自动化。美国联邦航空管理局一再警告说,一些飞行员变得如此依赖自动驾驶仪,以至于他们的飞行技能正在萎缩。类似的现象在自动驾驶汽车中也很常见,在自动驾驶汽车中,需要格外警惕,以防止罕见但可能致命的故障。

这个悖论可能是生成式人工智能发展故事的核心,以及它将把我们带到哪里。这项技术似乎已经在推动网络内容质量的螺旋式下降,因为信誉良好的网站充斥着人工智能生成的渣滓,垃圾邮件网站激增,聊天机器人试图人为地提高参与度。

这并不是说生成式人工智能已经破产。越来越多的研究表明,生成式人工智能工具如何提高一些员工的绩效和幸福感,例如那些处理客户支持电话的员工。其他一些研究也发现,当开发人员使用AI助手时,安全漏洞不会增加。值得称赞的是,GitHub正在研究如何在AI的帮助下安全地编码的问题。二月份,它宣布了一项新的Copilot功能,试图捕获底层模型生成的漏洞。

但是,代码生成的复杂影响为致力于为其他用例部署生成算法的公司提供了一个警示故事。

对人工智能表现出更多关注的监管机构和立法者也应该注意。由于人们对这项技术的潜力感到如此兴奋,以及对它如何接管世界的疯狂猜测,人工智能部署如何运作的更微妙但更实质性的证据可能会被忽视。我们未来的几乎所有东西都将以软件为基础——如果我们不小心,它也可能充斥着人工智能生成的错误。

本文从生成式人工智能生成内容的真实性问题出发,深度解析了我国法律对生成式人工智能技术真实性的监管规则,并对AIGC技术相关企业的合规治理提出了建议,以供读者参考。

作者丨王红燕 陈茜


一、生成式人工智能生成内容的真实性问题

生成式人工智能(AI Generated Content,AIGC),是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。[1]2022年12月,生成型预训练变换模型(Chat Gegerative Pre-trained Transformer,ChatGPT)火爆出圈,引发了对AIGC技术的新一轮关注。与分析已有数据的预测性人工智能不同,生成式人工智能可以通过学习海量数据来生成新的数据、语音、图像、视频和文本等内容。由于AIGC技术本身不具备判断力,随着AIGC技术的应用越来越广泛,其可能生成的虚假信息所带来的弊端也日益严重。不少用户在使用ChatGPT时已经意识到,ChatGPT的回答可能存在错误,甚至可能无中生有地臆造事实,臆造结论,臆造引用来源,虚构论文、虚构新闻等。面对用户的提问,ChatGPT会给出看似逻辑自恰的错误答案。在法律问题上,ChatGPT可能会虚构不存在的法律条款来回答问题。如果用户缺乏较高的专业知识和辨别能力,这种一本正经的虚假信息将很容易误导用户。OpenAI在GPT-4技术报告中指出,GPT-4和早期的GPT模型(包括大家熟知的ChatGPT)生成的内容并不完全可靠,可能存在Hallucinations(臆造),即产生与某些来源无关的荒谬或不真实的内容。[2]随着GPT模型越完善越智能,用户将更难区分其生成内容是真实的还是虚构的,并且,GPT模型生成的虚假数据极有可能被再次喂养给机器学习模型,致使虚假信息进一步泛滥,用户被误导的可能性进一步增大,而获得真实信息的难度增加。知名问答网站Stack Overflow就发布临时政策禁止ChatGPT在网站中的使用,以应对ChatGPT生成内容的泛滥之势,因为这些内容漏洞百出,质量低下,会给来网站寻求帮助的用户造成严重困扰和不便,严重影响平台内容质量。

因此,AIGC技术生成内容的真实性问题不仅是一个需要解决的技术问题,也需要通过法律制度加以监管和治理。

二、我国法律对生成式人工智能技术真实性的监管

早在2019年11月18日,国家互联网信息办公室,文化和旅游部,国家广播电视总局三部委发布的《网络音视频信息服务管理规定》就对基于深度学习、虚拟现实等的新技术新应用提出了监管要求,包括不得用于制作、发布、传播虚假新闻信息,制作、发布、传播非真实音视频信息应当以显著方式标识;发现网络音视频信息服务使用者利用基于深度学习、虚拟现实等的虚假图像、音视频生成技术制作、发布、传播谣言的,应当及时采取相应的辟谣措施,并将相关信息报网信、文化和旅游、广播电视等部门备案;具有媒体属性或社会动员功能的应当开展安全评估。

谨防“假作真时真亦假”——生成式人工智能的真实性问题及治理

人工智能

  • 下一篇人工智能的三大核心技术,你知道吗

    人工智能的三大核心技术,你知道吗

    人工智能是当下最具前瞻性的领域之一,也是未来发展方向的主要方向之一。人工智能的核心技术作为人工智能领域研究发展的基础,一直备受关注。