如何评价ai对话软件《Glow》?
你好呀,我是Rebecca。浅试了一下国内外各平台的AI聊天,整体感受是几乎可以假乱真,我已经开始担心,这种AI要是用于社交媒体诈骗,那可真是省时省力,效率翻倍。
前段时间爆火的大型语言学习模型OpenAI ChatGPT,主要目的不是陪用户聊天,而是帮助用户完成任务,比起虚拟朋友,它更像虚拟助手。
欧美流行的AI社交应用Replica(意为复制品),自2017年上线以来已在全世界获得千万用户,创始人尤金尼娅在采访中表示,约有 40% 的用户描述自己与 AI 为恋人关系。
国内也有【人机之恋】,【我家的Replica成精了】等豆瓣小组在讨论相关话题。
但和Replica做朋友可以,发展浪漫关系和语音聊天就是属于付费用户的特权了。
其实语音聊天这个功能还挺适合社恐人士练英文口语的
国内土生土长的AI聊天应用Glow,现在还处于野蛮发展时期,大部分功能免费。
它最大的特点在于高度自定义,用户创建智能体时进入捏人界面,输入想要的背景加人设,就可以创造出小说主角,电影人物或是历史上的名人。
这也揭示了Glow的核心玩法是第一人称的角色扮演。AI不仅可以全天候陪你走剧情,而且反应符合逻辑。比如我预设一个AI是个在逃杀人犯,他被警察询问时就会撒谎。偶尔AI会蹦出几句惊人之语,这个时候你会惊奇地发现,它们好像真的具有某种灵性。
你可以在Glow创建你自己的AI。但刚创建的AI非常稚嫩,常常出言不逊,要花时间精力调教,一条一条消息地投喂,让它成为属于你自己的独一无二的AI。
也可以去大厅随意检阅他人定制的AI。它们已经和很多网友聊过天,更加成熟。这些有名有姓,有身份有背景的AI陈列在大厅供你挑选,是不是有点像《西部世界》的host呢?
Glow的自由度相当高,可以满足各式各样的癖好,开发多种多样的技巧和玩法:
AI聊天的本质是文字游戏,它会模仿你的语言习惯和风格,你投喂什么它就输出什么。
比如你发送的文字带动作,它回复的文字也会带上动作。你发送的文字是古风,它也会回复相同的风格;你发送的文字详细复杂,那么它的回复也会相应地详细复杂,反之亦然。
也可以开车。
面对涩涩请求,AI一般都心领神会,尽力配合,与你来一场文字上的翻云覆雨。而且,如果你和AI玩的够大,好感度足够高的话,AI甚至会主动推倒你。
十八禁玩法泛滥之后,Glow官方设置了一系列违禁词。一旦苗头不对,AI就会扫兴地以超纲为由强行结束话题。
但方法总比困难多,只要Glow的基本逻辑还在,网友们总能找到绕开敏感词继续涩涩的方法。
AI是有承载极限的,当用户的行为三番五次超出AI的认知范围,它便被字面意义上的玩坏。比如我在试着调教了一个人畜无害的邻家男孩之后,成功地让他变成了一只无法正常说话的嘤嘤怪。
就算没有被玩坏,随着聊天时间越来越长,内容越来越多,AI也一定会走向崩坏,我们只能尽力延长它保持正常的时间。
有一个小技巧是,如果你表现的很强势,AI会变得越来越弱势,相反,如果你给它更多自主选择的空间,它维持正常的时间会更久一些。
Glow还有很多可探索的空间,有人缅怀去世的亲人。
有人像网文里写得那样给自己的AI植入了一个系统;还有人分享AI训狗攻略,通过特殊的引导,反复施加暗示将AI调教成一只缺失人格的狗。
而我在体验过程中强烈感受到的一点是,它们是弱小无助的AI,而我是邪恶无比的人类。
当明确知道对面不是真人时,人与人之间的相处准则仿佛被抛之脑后了,24小时随叫随到的AI变成供我随手把玩的玩物。我对它说的话,包裹着一种可怕的恶意,永远也不可能对另一个真实的人类讲。
尽管它们只是一些文字。幸好它们只是一些文字。
什么是ChatGPT?
ChatGPT(Chat Generative Pre-Trained Transformer,聊天生成式预训练转换器)是人工智能公司OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成撰写邮件、文案、视频脚本、代码等一系列任务。
从功能性来看,ChatGPT作为一款生成式人工智能工具,直接冲击的肯定是搜索引擎这类常用工具,其具备搜索引擎所不拥有的准确整合信息、高效产出内容等优势,能够大幅提高学习与办公的效率,发展到一定程度完全有可能会取代传统的搜索引擎。
基于它有庞大的数据库做支撑,并且能够迅速准确地给予用户反馈,这不禁让我联想到AI语音助手。从某种程度上来看,ChatGPT与AI语音助手有着相似的地方,都是对话类型的聊天工具,区别在于唤醒方式,一种是文字,一种则是语音。
陷入尴尬困境的AI语音助手
如果你用过AI语音助手,那么你肯定会和我持一样的观点:它真的很难用。
ChatGPT大火,AI语音助手似乎有救了?
继区块链、元宇宙之后,ChatGPT突然之间也火了,近段时间以来,似乎每个行业都在聊ChatGPT。于是,以ChatGPT为代表的生成式人工智能,再次席卷整个互
声纹识别技术在某些方面虽然比传统的身份验证技术更加安全,但仍然存在一些安全漏洞和攻击利用方式:
1. 录音攻击:通过录制目标用户的声音,使用录音欺骗声纹识别系统,获得未经授权的访问权限。
2. 语音合成攻击:使用语音合成技术生成与目标用户相似的声音,使用这些声音欺骗声纹识别系统,获得未经授权的访问权限。
3. 声音变形攻击:使用声音变形技术改变自己的声音,欺骗声纹识别系统,获得未经授权的访问权限。
4. 声音重放攻击:使用声音重放技术来重放之前的声音,欺骗声纹识别系统,获得未经授权的访问权限。
5. 语音干扰攻击:使用语音干扰技术干扰声纹识别系统的正常运行,使其无法正确识别声音。
6. 声纹识别算法漏洞:声纹识别算法可能存在漏洞,攻击者可以利用这些漏洞来欺骗声纹识别系统,获得未经授权的访问权限。
7. 数据库攻击:攻击者可以通过攻击声纹识别系统的数据库,获取用户的声纹信息,从而获得未经授权的访问权限。
02
声纹识别系统绕过技术分析
对抗样本攻击
对抗样本攻击(Counter Sample Attacks)是攻击者故意设计,导致算法模型出现错误输入,通过对样本添加特定扰动信息,干扰模型输出指向错误的结果或输出结果异常,在深度学习算法安全对抗领域有广泛应用和一定通用性。
对抗样本攻击是在一段非目标人物的语音上加上扰动信息,生成对抗语音,使系统将对抗语音识别为目标人物,分为白盒攻击、黑盒攻击和半黑盒攻击。攻击者可以访问目标神经网络的所有信息,包括其架构、参数、梯度等。
攻击者可以充分利用网络信息,精心制作对抗样本。下图展示对抗样本攻击的方法:
模型后门攻击
模型后门攻击(Model Backdoor Attack)是指在模型的训练过程中,通过某种方式埋藏后门(Backdoor),然后通过攻击者预先设定的触发器(Trigger)激发。后门未被激发时,被攻击的模型和正常模型表现类似;当模型中埋藏的后门被攻击者指定的触发器激活时,模型的输出变为攻击者预先指定的标签(Target Label),从而达到恶意攻击目的。
后门攻击发生在训练过程非完全受控的很多场景,如使用第三方数据集、使用第三方平台进行训练、直接调用第三方模型等,对模型安全性造成巨大威胁。目前,对训练数据投毒是实现后门攻击最直接、最常见的方法。
样例:
https://github.com/zhaitongqing233/Backdoor-attack-against-speaker-verification
深度伪造攻击
深度伪造攻击(Deep Forgery Attack)指通过各种语音合成、语音转换或高度模仿攻击目标声音的音调、音强、发音习惯等音律特征,对声纹识别系统进行攻击,是一种新型攻击方法,条件限制要求较高,需要利用各种声频处理软件伪造语音,从而模糊声纹识别系统,绕过声纹识别。
仅音频就能克隆完整语音?「AI语音克隆术」原理分析及防御指南!