1987WEB视界-分享互联网热门产品和行业

您现在的位置是:首页 > 人工智能AI > 正文

人工智能AI

女性更顺从?AI语音助手多为女性形象,联合国担心加剧性别偏见

1987web2023-08-05人工智能AI89
你是否知道,如果有人对苹果语音助手Siri使用侮辱性言论,她会回答如果我能,我会脸红?形象谦卑恭顺,符合大众对女性的一贯看法。

你是否知道,如果有人对苹果语音助手Siri使用侮辱性言论,她会回答如果我能,我会脸红?形象谦卑恭顺,符合大众对女性的一贯看法。

近日,联合国教科文组织与德国政府、EQUALS技能联盟合作出版了一份长达145页的建议书,题为《如果我能,我会脸红》。

这是联合国围绕人工智能研发和应用中的性别偏见问题提出的首个建议书。其内容指出,性别偏见潜藏在大多数AI语音助手中——它们几乎都有着女性的名字和声音,并被设置成千篇一律的、顺从的女性形象。

《如果我能,我会脸红》封面。图自联合国教科文组织官网。
当收到用户的性骚扰言语时,业内领先的AI语音助手的回应。图自联合国建议书《如果我能,我会脸红》。

值得注意的是,Siri花了差不多两年的时间才有男性配音,谷歌助手花了一年时间,Cortana和Alexa问世四年多,至今仍然只有女声。

南都注意到,类似现象在中国同样存在。2017年至今,阿里、小米、百度等大公司纷纷推出智能音箱产品,天猫精灵、小爱同学、小度等AI语音助手搭载着音箱走入千家万户,它们的默认声音也全都是女声。

联合国教科文组织性别平等部门负责人珂拉特(Saniye Gülser Corat)表示,各类机器正以顺从、谦卑的女性形象出现在人们的家庭、汽车和办公室里。这种强行设定的服从形象,会影响人们与女性声音交流的方式,以及女性面对他人要求时的回应模式。

换言之,百依百顺的女性AI助手,可能会模糊机器女性与真实女性之间的界限,加剧社会对女性的刻板印象,让人们认为女性没有自己的需求,或者认为女性就应该具有无限的耐心和理解力。

为了改变这一趋势,我们需要更加密切地关注人工智能技术是否、于何时何地以及如何被性别类型化。最为重要的是,谁在对其进行性别类型化。 珂拉特说。

联合国教科文组织建议:停止将女性作为默认设置

在回应使用女性语音助手的批评时,亚马逊、苹果等公司引用研究资料辩称,人们更喜欢女声。这样的设置只是为了吸引和愉悦消费者,而不是有性别歧视问题。

然而,人们真的天生就喜欢女声吗?专门研究人机互动的研究者早已认识到,人们倾向于将女性声音定义为更有帮助。原因可能是,将女性当作养育者的传统社会规范和其他社会建构的性别偏见,影响了人们对声音的认知。

建议书指出,有帮助的和谦卑的这两个词,是上述公司的发言人提到女性语音助手时最常用的词汇。这与现实中人们对女性的刻板印象相类似。研究人员认为,AI语音助手的设计者几乎都是男性,才是语音助手大多被默认设置为女性的主要原因。

人工智能的性别歧视案例不只有语音助手一例。早在2014年,亚马逊开发了智能筛选简历的AI工具,其训练数据库是过去10年亚马逊收到的简历,结果是AI发展出了性别歧视招聘问题,更倾向招聘男性,将所有带有女性词汇的简历降级。

另外,波士顿大学的Tolga Bolukbasi和微软的研究员发现,谷歌在2013年推出的可用于机器翻译和智能搜索的工具包word2vec有性别歧视问题,当在数据库中输入:父亲:医生 :: 母亲:X时,该工具会告诉你X等于护士。当输入:男人:程序员 :: 母亲:X时,它会说X等于家庭主妇。

建议书指出,众多女性智能助手表现出的顺从和谦卑,反映了人工智能产品中深植的性别偏见。这些偏见根源于技能教育和技术部门内严重的性别比例失衡。数据显示,在人工智能开发人员中,仅12%是女性;软件开发人员中的女性比例低至6%;信息通信技术专利申请人中的男女性别比例为13:1。

联合国教科文组织就此向各公司和各国政府提出建议:1)停止将智能助手的默认性别设置为女性;2)探索将语音助理的机器性别设置为中性的可行性;3)在智能助手程序中设置减少性别侮辱和辱骂性语言的功能;4)鼓励开发语音助理的互动性,以便用户根据需要更改智能助手设置;5)要求人工智能语音助理的运营商在用户使用初期就声明人工智能的非人类属性;6)培养女性从事先进科技研究的能力,使其能与男性一同引领新技术的发展方向。

采写:南都实习生陈志芳 冯群星