1987WEB视界-分享互联网热门产品和行业

您现在的位置是:首页 > 人工智能AI > 正文

人工智能AI

AIGC生成式人工智能监管现状及法律风险

1987web2023-07-06人工智能AI134

生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。近期成为热点话题的ChatGPT便是基于此种技术开发出的应用。而此种技术生成的内容被称为人工智能生成内容(Artificial Intelligence Generated Content,下称AIGC)。本文将主要阐述规制生成式人工智能的国内法律、目前最新的AIGC模型版权争议、侵权场景以及对如何避免此类版权侵权的思考。

一、生成式人工智能的国内法律规制

国内目前主要是在《网络安全法》《数据安全法》以及《个人信息保护法》的框架下,由《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理办法》(征求意见稿)(下称《办法》)《科技伦理审查办法(试行)》(征求意见稿)共同监管AIGC行业。

《办法》中提到国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。但是,鼓励发展的同时也要形成有效的监管模式。对此《办法》规定了AIGC产品的入市门槛。《办法》要求在利用AIGC产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。在训练数据的来源上,用于生成式人工智能产品的预训练、优化训练数据,应满足的要求之一是不含有侵犯知识产权的内容。

除上述要求之外,《办法》还对AIGC产品的服务提供者提出用户实名认证、禁止歧视内容生成、模型优化义务、标识义务、信息披露义务、数据处理者的义务等要求。

二、国外AIGC热点问题及AI模型中的法律风险

在国内前几年关于AIGC的案例中,已存在认定AIGC生成作品享有著作权的先例(详见《互联网版权 | 人工智能生成物著作权属性认定及权利归属》)。但国内关于AIGC版权侵权的争议点还主要集中在生成、输出的内容上,但是,AI模型还存在训练阶段,在此阶段也存在版权侵权的可能。例如,2023年,在美国加州,三名漫画家对Stability AI等三家AIGC公司发起诉讼,指控Stability AI使用Stable Diffusion模型开发的付费AI图像生成工具构成版权侵权。Stable Diffusion模型利用版权作品的阶段如下图:

对Stable Diffusion模型的训练可以理解为使其能在繁杂的图像库中去掉与输入文本要求不符的部分,最终形成目标图像。从图上看,在训练阶段,Stable Diffusion模型需要下载现有作品,涉及对版权作品的复制;而现有作品进入图像编码器并按照文本编码器的要求进行处理生成最终目标图像内容的过程,应认定为改编。如生成的最终目标图像与现有作品的相似程度达到侵权标准,则会侵犯现有作品作者的复制权、改编权。

此外,从AI模型的整个流程上看,生成式人工智能服务提供者可能面临的法律风险,在输入端主要有,AIGC服务提供者未经授权获取现有版权作品、获取现有版权作品利用的爬虫等技术本身可能涉及不正当竞争以及在训练模型中输入内部资料可能泄露企业商业秘密。而在输出端,生成内容可能面临版权侵权风险以及与训练数据库中未包含作品相似是否构成侵权的问题。另外,AIGC通常并不能准确指明参考或利用的第三方文献的作者,因此可能导致参考或引用的素材署名权侵权。AI模型的上述风险点在本系列后续的文章中,将会进行详细介绍。

三、AIGC模型优化的思考

AIGC生成内容能否实现自身技术层面的优化,进而避免版权侵权风险呢?

基于上节中提到的训练模型分析,其中对现有版权作品的利用可能侵犯现有作品作者的复制权、改编权。我国著作权法中受保护的作品,需要具有独创性的外在表达。在司法实践中,对于侵权是通过实质性相似+接触来判断的。 其中在实质性相似的角度上,有研究团队指出,如果训练模型在生成结果时主动偏离训练数据,则可能一定程度上避免对现有作品的侵权。此外,在法律上也应当要求提供AIGC服务的企业应当采取能够达到上述效果的技术手段来避免侵犯他人相关权益。

来源:盈科上海互联网法律事务部

私信我,免费解答各项法律问题!!!