理性应对ChatGPT网络安全威胁
原标题:理性应对ChatGPT网络安全威胁
□ 赵精武
聊天机器人ChatGPT的最初功能定位是以贴近人类沟通的方式进行人机互动,但是用户在使用过程中发现,ChatGPT除了能与用户进行正常对话外,甚至能够很好地完成代码、论文、短评、新闻、翻译、邮件等内容的创作,并让人难以分辨其创作者为真人还是机器人。
ChatGPT作为一种现象级产品,表现出的强大功能展现了人工智能技术对社会人力资源分配和产业结构优化的潜在市场价值。但与任何一项新技术应用一样,ChatGPT也会具有两面性,在提升人类生活品质和工作效率的同时,也有可能因其滥用而产生一些负面的社会效果,特别是其有可能产生网络安全威胁:
第一,ChatGPT的代码编写功能将拓展黑客攻击的技术工具,使得原有的网络攻击呈现更加庞大的规模化趋势。ChatGPT能够辅助黑客高效完成恶意软件的编写,如此一来,针对关键信息基础设施有组织、有规模的网络安全攻击频次将会增加,同时,过去以大型企业为主要目标的攻击模式可能转变为囊括大中小型企业的攻击模式。
第二,ChatGPT的信息编写功能能够辅助网络诈骗分子生成规模化、低成本的网络钓鱼软件,并且生成的诈骗信息由于具有智能化特征,使得被诈骗者识别信息真伪的难度增加。
第三,ChatGPT的信息编写功能可能导致网络虚假信息泛滥,并且网络用户更加难以甄别这些信息的真伪,由此网络空间舆情治理压力势必增加。
针对这些问题,有专家学者提出应对ChatGPT制定专门立法制定配套措施。实际上,ChatGPT的市场成功不等于人工智能产业取得了突破性发展。考虑到ChatGPT目前能够处理的工作任务具有鲜明的重复性、模板性特征,因此,监管机构没有必要立即将ChatGPT技术监管作为现阶段网络空间治理的核心工作任务,否则,我国立法模式会陷入出现一项新技术,制定一项新规定的逻辑怪圈。
其实,我国已先后颁布了网络安全法、《网络信息内容生态治理规定》、《互联网信息服务算法推荐管理规定》等法律法规,针对人工智能技术和算法技术滥用规定了详细的法定义务和监管体系,足以应对短期内ChatGPT可能导致的网络安全风险。现阶段,我国监管部门可以充分利用现有法律制度,加强对ChatGPT相关产业的监管;未来在经验成熟时,可以考虑启动人工智能技术应用领域的立法,以应对各种潜在的安全风险。
首先,重点监管大型企业研发活动,落实人工智能技术标准。ChatGPT对于算法、数据乃至服务器的需求量惊人,具备开发类似产品的主体大多仅限于超大型互联网企业或技术公司。在相关产品投入市场之前,可以利用算法备案机制,对具备影响网络安全和国家安全可能性的产品或服务进行安全性审查。并且,相较于对用户使用行为进行监管而言,从源头上对研发企业进行监管成效更显著,且研发企业也有技术能力对恶意软件代码片段编写功能进行限制。
其次,明确研发机构、网络平台经营者对于人工智能产品应用的安全风险评估义务。ChatGPT及其类似产品本身不具有社会危害性,关键在于以不当方式使用可能导致一定的损害结果。针对ChatGPT可能引发的网络钓鱼邮件等网络诈骗风险,应当明确作为危险制造者的研发机构、网络平台经营者在此类产品投入市场之前进行安全风险评估,确保风险可控。
最后,需要关注以人工智能信息审核技术规制人工智能可能诱发的虚假信息泛滥风险。为了避免ChatGPT等人工智能产品大量生成难以通过自动化批量审核的虚假信息内容,监管机构以及网络平台经营者可能需要进一步提升监管技术,充分利用人工智能技术的审核智能化特征,根据ChatGPT这类产品的发展水平和生成信息内容特征,鼓励行业协会、大型企业或第三方专业机构积极推进人工智能违规信息审核产品的研发和推广。
(作者系北京航空航天大学副教授,北京科技创新中心研究基地副主任)(赵精武)
(法治日报)