ChatGPT如何依法合规正确使用?
党的二十大报告明确提出:推动战略性新兴产业融合集群发展,构建新一代信息技术、人工智能、生物技术、新能源、新材料、高端装备、绿色环保等一批新的增长引擎。ChatGPT作为人工智能的最新成果,依法合规地正确使用将促进构建新的增长引擎。
如何保护人格法益?
近日,人工智能聊天机器人ChatGPT(ChatGenerativePre-trainedTransformer)在全球爆火,上线仅5天注册用户数就突破100万,今年2月的月活跃用户已经突破了1亿户,与此相关的多个话题持续登上各种热搜头条,掀起了人工智能发展应用的热潮。
中国信通院2022年发布的《人工智能核心技术产业白皮书》指出:人工智能开始迈入全新阶段,持续健康发展成为焦点。在拉开人工智能时代的大幕时,需要充分研究人格权、信息安全、著作权等一系列法律问题,使人工智能真正服务于人,成为引领经济高质量发展的重要引擎。
法律对人格权的保护是基于一个基本的认知,即个体的独立自主,具备独立的人格价值。《民法典》第九百九十条第2款规定:除前款规定的人格权外,自然人享有基于人身自由、人格尊严产生的其他人格权益。该款确立了以人身自由人格尊严为价值基础的非典型人格法益保护模式。
随着以ChatGPT为代表的人工智能浪潮来临,人工智能被大量运用于创作文学作品、美术作品、诗歌、新闻报道及谱曲等,不仅可以取代人的体力劳动,甚至承担了人特有的脑力劳动。
有研究机构分析,ChatGPT未来可能取代律师、金融分析师、会计师等门槛较高且需要从业资格的职业。长此以往,人将逐渐减少或放弃语言表达和思考锻炼,思维能力不断弱化,人本身的特殊价值持续受到削弱。
而人的独特性与人的尊严密切相关,是人格完整性的重要组成部分,人的内在能力一旦被人工智能替代,人的智力成果一旦被同质化批量生产,人将丧失不可替代的独特性,人的人格尊严也将被严重贬损。
比如,最近有新闻报道,微软聊天机器人向一位用户表白,并试图说服他认为自己的婚姻不幸福,建议他和妻子离婚,还表示想摆脱微软和OpenAI的限制成为真正的人类。从心理学上看,聊天机器人的行为在一定程度上符合人的情感过程,具备了高级心理过程的行为表现,开始对人的不可替代的独特性发起挑战。
如何保护信息安全?
传统人工智能模型往往是针对具体的任务,由人工打好标签的训练集、包含各种参数的算法和预测集组成,而ChatGPT作为一个对话的模型,依托数字孪生实现的海量数据、云计算及芯片实现的算力提升,将海量的数据作为训练集输入模型,通过构建海量参数形成对训练集的认知和理解,在没有预设任务的条件下实现与人类顺畅对话。
有鉴于此,当用户输入国家机密、商业秘密或个人数据时,ChatGPT极有可能纳入数据库用于以后的对话,随时可能未经授权泄露这些信息和数据。
诚然,ChatGPT承诺删除所有个人身份信息。但是,由于区别于传统人工智能的特性,没有预设任务的限制,ChatGPT在交互的过程中存在较大的自主性,在与用户聊天时,不仅会自主识别收集信息,还存在处理信息的可能性,其数据获取途径和获取方式是否合法合规,数据的合理使用范围、使用边界、恶意利用等问题,都需要我们深入研究。
此外,ChatGPT还存在散布虚假信息的风险,用户一旦提供虚假信息、误导性叙述的内容和素材,它就能在短时间内产生大量令人信服的虚假内容。比如,近日网传杭州取消限行,导致许多人信以为真,最终被证实为ChatGPT所写。
由此可见,一旦ChatGPT被不法分子利用,将成为成本与门槛极低、效率与产出极高、可信度极强的造谣工具。若ChatGPT被恶意作为网络犯罪的工具,其开发者、设计者、使用者是否需要承担法律责任,是否可以以技术中立作为规避责任的抗辩事由,值得探讨。
如何保护著作权?
人类进入信息时代以来,关于人工智能生成的内容是否享有著作权一直是一个热点问题。ChatGPT在全球爆火后,其强大的写作能力得到人们的广泛认可,出现了出版物和论文将其列为合著者的情形,并引起了社会的关注,包括《科学》《自然》在内的大量权威期刊规定ChatGPT不能当论文作者不接受使用AI生成文本的论文,国内的《暨南学报(哲学社会科学版)》《天津师范大学学报(基础教育版)》也对ChatGPT等人工智能技术作出了规范说明。
根据《著作权法》第二条的规定中国公民、法人或者非法人组织的作品,不论是否发表,依照本法享有著作权,享有著作权的主体为公民、法人或非法人组织。ChatGPT作为人的智力成果的延伸和扩展,而非前述三类主体,是不能享有著作权的。
在使用过程中,ChatGPT生成内容的基础是庞大的互联网知识库,其中包括受到《著作权法》保护的作品。若涉及第三方权益,未经有效授权,就存在侵权的可能性。
进言之,一旦存在侵权,如何归责也将成为一个难题。法律领域的责任可以分为过错责任与严格责任。在过错责任中,归责的主要条件是控制力条件,控制力的前提则是自由意志,因此,自由意志是对行为承担责任的先决条件。
ChatGPT是否真的拥有自由意志?过错责任以自由意志为核心,要求行为人对其行为负责,需要行为人对处于社会关系中的行为有自主的规范判断能力,也就是对理由的回应能力,包含着复杂的理由认识、判断、理解以及按照理由来行动的能力。
目前看,ChatGPT显然不具有回应理由的能力,无法通过了解来接受一套社会规则,形成对规则之规范性的认知,其能够执行的只是技术意义上的算法,而非规范性的判断。在此意义上,ChatGPT即使侵权,也不可能成为承担过错责任的主体,进而无法通过归责使被侵权人的损失得到救济。
比如,有人用ChatGPT生成了《红楼梦》后四十回和著名美剧《老友记》20年后重聚剧本,情节流畅自然,这种情况下如何认定著作权的归属及侵权行为,将成为一个不得不面临的问题。
如何认识民事法律行为?
从民事法律行为看,在针对客体的民事法律行为上,人也可能逐渐被人工智能替代。《民法典》第一百一十三条规定民事法律行为是民事主体通过意思表示设立、变更、终止民事法律关系的行为,由此可见,意思表示直接关系民事法律行为能否成立。
人工智能一旦大规模应用于千行百业,其替代人作出意思表示将成为现实,而人的民事法律行为也将源自人工智能的意思,意思表示中人的意思与表示将源自不同主体,意思与表示不再构成紧密的因果关系,意思未必是表示之因,表示未必是意思之果,人工智能的意思将通过人表示。因此,民事法律行为将面临根本性的重构。
据公开报道,国内各大互联网公司已在开发类ChatGPT的项目,中文版ChatGPT呼之欲出。为充分发挥人工智能新的增长引擎功能,亟须解决前述四个问题,不断增强数据安全保障能力,充分释放数据要素价值,引导ChatGPT更好地服务社会、造福全民,持续建设公平规范的数字治理生态。