10分钟被骗430万AI换脸成新型诈骗手段?
随着人工智能迅猛发展,AI换脸的技术门槛越来越低,相关内容频频出现在网络平台。最近,这项技术被诈骗团伙盯上了,福州的郭先生被骗子利用AI换脸的方式骗走了四百多万。AI诈骗正在全国爆发的话题一度冲上了热搜第一。
4月20日中午,福州市某科技公司法人代表郭先生接到好友发来的微信视频,两人经过短暂聊天后,该好友借口自己的朋友在外地投标,需要430万元保证金,想要借用郭先生公司的账户走一下账。好友向郭先生要了银行卡号,声称钱已经打到郭先生的账户上,还把银行转账底单的截图发给了他。基于对视频聊天的信任,郭先生没有核实钱是否到账,就先后分两笔把430万元转给了对方。事后,郭先生拨打好友电话,但对方却对此事毫不知情,他这才意识到自己被骗了。对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。接到报警后,福州、包头两地警银迅速启动止付机制,该诈骗账户内的336.84万元被骗资金被成功拦截。同时,福州市公安局已接到剩余款项93.16万元资金流出信息,正全力追缴。
作为新兴技术,AI为生活带来便利的同时,也给了不法分子可乘之机。AI诈骗中,声音合成最为常见,骗子通过骚扰电话,先录音提取某人声音,获取素材后进行声音合成,从而以伪造的声音实施诈骗。
还有骗子利用照片、视频等,通过图像合成技术,进行AI换脸,再以视频方式进行诈骗。
可见,在AI时代,眼见、耳听都不一定为实了,大大增强了迷惑性。从普通人的角度,又该如何加强防范呢?中国政法大学知识产权研究中心特约研究员赵占领建议,大家在使用各类软件的过程中,一般情况下非必要不提供像人脸识别信息、声音、声纹等这种高度敏感的个人信息。另外,对于所有涉及到需要转账或与金钱有关的电话或是其他一些通讯信息,都要保持高度警惕,要通过多种手段核实验证,一旦发现风险,要第一时间报警求助。
AI换脸技术被滥用,所带来的不仅是财产风险,还会引发肖像权、知识产权等领域的纷争。近日,有网友反映点开直播间后,发现正在卖货的竟是当红女明星。再仔细一看,这些带货明星其实只是使用了AI实时换脸技术的普通主播。杨幂、迪丽热巴、杨颖等当红女星,成为了AI换脸的重点对象。面对直播间观众的追问,带货主播既不承认也不否认,一副不置可否的姿态,一切尽在不言中。并且,在最近曝出的此类案例中,主播都没有进行必要的事前声明,直播过程中也没有打出显著标识提醒观众。不得不让人怀疑,他们就是想假戏真做,刻意误导网友,并以此来赚钱。
需要厘清的是,AI换脸虽然是新事物,但却不存在监管空白或无法可依的情况。今年1月10日,国家网信办、工信部、公安部联合发布的《互联网信息服务深度合成管理规定》正式实施。作为我国第一部针对深度合成服务治理的专门性部门规章,明确了深度合成数据和技术管理规范。要求服务提供者和技术支持者加强管理,保障数据安全,不得非法处理个人信息;深度合成内容需进行显著标识,任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。
今年4月11日,国家网信办起草了《生成式人工智能服务管理办法》(征求意见稿),管理办法提出,AI内容必须真实准确,其中也明确提到,禁止非法获取、披露、利用个人信息和隐私、商业秘密。
如今AI换脸的门槛越来越低,对于这些开发提供换脸技术的公司和展示AI换脸视频的相关平台,该如何加强监管?已经出台的监管法规,如何落到实处呢?赵占领建议可从三个方面入手。第一,AI合成服务的提供者要加强对内容的管理,采取技术或人工的方式,对使用者输入的数据和合成的结果进行审核。第二,技术提供方要尽到提示义务,如果涉及到AI换脸或AI换声音,提示使用者要依法告知被编辑人,经过他人同意。第三,对于生成结果,要进行显著标识,而且要采取技术手段,防止被他人删除标识或隐匿标识等。目前,关于这几个方面的管理要求已经比较明确了,但很多相应的软件还没有完全做到位,这就要求相关部门加强对于此类软件经营者的监管,如果发现存在违法违规的地方,应当及时对其进行相应的行政处罚,提高防范的意识。
(看看新闻Knews编辑:李荣康 阮丽 陈昱卉)