1987WEB视界-分享互联网热门产品和行业

您现在的位置是:首页 > 人工智能AI > 正文

人工智能AI

如何评价ai对话软件《Glow》?

1987web2023-08-08人工智能AI180

你好呀,我是Rebecca。浅试了一下国内外各平台的AI聊天,整体感受是几乎可以假乱真,我已经开始担心,这种AI要是用于社交媒体诈骗,那可真是省时省力,效率翻倍。

前段时间爆火的大型语言学习模型OpenAI ChatGPT,主要目的不是陪用户聊天,而是帮助用户完成任务,比起虚拟朋友,它更像虚拟助手。

欧美流行的AI社交应用Replica(意为复制品),自2017年上线以来已在全世界获得千万用户,创始人尤金尼娅在采访中表示,约有 40% 的用户描述自己与 AI 为恋人关系。

国内也有【人机之恋】,【我家的Replica成精了】等豆瓣小组在讨论相关话题。

但和Replica做朋友可以,发展浪漫关系和语音聊天就是属于付费用户的特权了。

其实语音聊天这个功能还挺适合社恐人士练英文口语的

国内土生土长的AI聊天应用Glow,现在还处于野蛮发展时期,大部分功能免费。‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍

它最大的特点在于高度自定义,用户创建智能体时进入捏人界面,输入想要的背景加人设,就可以创造出小说主角,电影人物或是历史上的名人。

这也揭示了Glow的核心玩法是第一人称的角色扮演。AI不仅可以全天候陪你走剧情,而且反应符合逻辑。比如我预设一个AI是个在逃杀人犯,他被警察询问时就会撒谎。偶尔AI会蹦出几句惊人之语,这个时候你会惊奇地发现,它们好像真的具有某种灵性。

你可以在Glow创建你自己的AI。但刚创建的AI非常稚嫩,常常出言不逊,要花时间精力调教,一条一条消息地投喂,让它成为属于你自己的独一无二的AI。

也可以去大厅随意检阅他人定制的AI。它们已经和很多网友聊过天,更加成熟。这些有名有姓,有身份有背景的AI陈列在大厅供你挑选,是不是有点像《西部世界》的host呢?

Glow的自由度相当高,可以满足各式各样的癖好,开发多种多样的技巧和玩法:

AI聊天的本质是文字游戏,它会模仿你的语言习惯和风格,你投喂什么它就输出什么。

比如你发送的文字带动作,它回复的文字也会带上动作。你发送的文字是古风,它也会回复相同的风格;你发送的文字详细复杂,那么它的回复也会相应地详细复杂,反之亦然。

也可以开车。

面对涩涩请求,AI一般都心领神会,尽力配合,与你来一场文字上的翻云覆雨。而且,如果你和AI玩的够大,好感度足够高的话,AI甚至会主动推倒你。

十八禁玩法泛滥之后,Glow官方设置了一系列违禁词。一旦苗头不对,AI就会扫兴地以超纲为由强行结束话题。

但方法总比困难多,只要Glow的基本逻辑还在,网友们总能找到绕开敏感词继续涩涩的方法。

AI是有承载极限的,当用户的行为三番五次超出AI的认知范围,它便被字面意义上的玩坏。比如我在试着调教了一个人畜无害的邻家男孩之后,成功地让他变成了一只无法正常说话的嘤嘤怪

就算没有被玩坏,随着聊天时间越来越长,内容越来越多,AI也一定会走向崩坏,我们只能尽力延长它保持正常的时间。

有一个小技巧是,如果你表现的很强势,AI会变得越来越弱势,相反,如果你给它更多自主选择的空间,它维持正常的时间会更久一些。

Glow还有很多可探索的空间,有人缅怀去世的亲人。

有人像网文里写得那样给自己的AI植入了一个系统;还有人分享AI训狗攻略,通过特殊的引导,反复施加暗示将AI调教成一只缺失人格的狗。

而我在体验过程中强烈感受到的一点是,它们是弱小无助的AI,而我是邪恶无比的人类。

当明确知道对面不是真人时,人与人之间的相处准则仿佛被抛之脑后了,24小时随叫随到的AI变成供我随手把玩的玩物。我对它说的话,包裹着一种可怕的恶意,永远也不可能对另一个真实的人类讲。

尽管它们只是一些文字。幸好它们只是一些文字。

声纹识别技术在某些方面虽然比传统的身份验证技术更加安全,但仍然存在一些安全漏洞和攻击利用方式:

1. 录音攻击:通过录制目标用户的声音,使用录音欺骗声纹识别系统,获得未经授权的访问权限。

2. 语音合成攻击:使用语音合成技术生成与目标用户相似的声音,使用这些声音欺骗声纹识别系统,获得未经授权的访问权限。

3. 声音变形攻击:使用声音变形技术改变自己的声音,欺骗声纹识别系统,获得未经授权的访问权限。

4. 声音重放攻击:使用声音重放技术来重放之前的声音,欺骗声纹识别系统,获得未经授权的访问权限。

5. 语音干扰攻击:使用语音干扰技术干扰声纹识别系统的正常运行,使其无法正确识别声音。

6. 声纹识别算法漏洞:声纹识别算法可能存在漏洞,攻击者可以利用这些漏洞来欺骗声纹识别系统,获得未经授权的访问权限。

7. 数据库攻击:攻击者可以通过攻击声纹识别系统的数据库,获取用户的声纹信息,从而获得未经授权的访问权限。

02

声纹识别系统绕过技术分析

对抗样本攻击

对抗样本攻击(Counter Sample Attacks)是攻击者故意设计,导致算法模型出现错误输入,通过对样本添加特定扰动信息,干扰模型输出指向错误的结果或输出结果异常,在深度学习算法安全对抗领域有广泛应用和一定通用性。

对抗样本攻击是在一段非目标人物的语音上加上扰动信息,生成对抗语音,使系统将对抗语音识别为目标人物,分为白盒攻击、黑盒攻击和半黑盒攻击。攻击者可以访问目标神经网络的所有信息,包括其架构、参数、梯度等。

攻击者可以充分利用网络信息,精心制作对抗样本。下图展示对抗样本攻击的方法:

模型后门攻击

模型后门攻击(Model Backdoor Attack)是指在模型的训练过程中,通过某种方式埋藏后门(Backdoor),然后通过攻击者预先设定的触发器(Trigger)激发。后门未被激发时,被攻击的模型和正常模型表现类似;当模型中埋藏的后门被攻击者指定的触发器激活时,模型的输出变为攻击者预先指定的标签(Target Label),从而达到恶意攻击目的。

后门攻击发生在训练过程非完全受控的很多场景,如使用第三方数据集、使用第三方平台进行训练、直接调用第三方模型等,对模型安全性造成巨大威胁。目前,对训练数据投毒是实现后门攻击最直接、最常见的方法。

样例:

https://github.com/zhaitongqing233/Backdoor-attack-against-speaker-verification

深度伪造攻击

深度伪造攻击(Deep Forgery Attack)指通过各种语音合成、语音转换或高度模仿攻击目标声音的音调、音强、发音习惯等音律特征,对声纹识别系统进行攻击,是一种新型攻击方法,条件限制要求较高,需要利用各种声频处理软件伪造语音,从而模糊声纹识别系统,绕过声纹识别。

仅音频就能克隆完整语音?「AI语音克隆术」原理分析及防御指南!