1987WEB视界-分享互联网热门产品和行业

您现在的位置是:首页 > 人工智能AI > 正文

人工智能AI

AI大模型测试国家标准制订启动,百度、华为、阿里、360等参与

1987web2023-08-16人工智能AI96
原标题:AI大模型测试国家标准制订启动,百度、华为、阿里、360等参与

原标题:AI大模型测试国家标准制订启动,百度、华为、阿里、360等参与

7月7日消息,在2023世界人工智能大会(WAIC 2023)上,国家标准委指导的国家人工智能标准化总体组宣布我国首个大模型标准化专题组组长,由上海人工智能实验室与百度、华为、阿里、360等企业联合担任,现场进行了证书颁发并正式启动大模型测试国家标准制订。

今年以来,AI大模型快速发展,目前国内已接近百个大模型,但对大模型的能力评测缺乏统一标准,此前仅有部分企业和机构,如科大讯飞、中国信通院、智源研究院等在标准方面进行了探索。

今年5月,国家启动大模型标准化工作,人工智能标准化总体组设立大模型专题组,启动大模型专题组组长、副组长申报和大模型标准化研究选题建议工作。大模型专题组将承担大模型标准化制订工作,目的是推动大模型技术和标准化的实践结合,促进人工智能产业健康发展。

据介绍,大模型专题组组长要求在大模型理论研究和产业应用等方面具有较高专业水平,熟悉大模型领域国际前沿科技发展态势、法规制度与标准规范等。联合组长单位需要发挥在大模型领域的理论和实践经验,围绕大模型软硬件底座、关键技术、产业应用等重点领域的突出问题提供标准化研究选题建议。

根据美国华盛顿大学、卡内基梅隆大学和中国西安交通大学的最新研究,这是因为人工智能语言模型包含不同的政治偏见。研究人员对 14 个大型语言模型进行了测试,发现OpenAI的 ChatGPT 和 GPT-4 是最左翼的自由主义者,而Meta的 LLaMA 是最右翼的威权主义者。

研究人员询问了语言模型在女权主义和民主等各种话题上的立场。他们答案将答案绘制在一个被称为政治指南针的图表上,然后测试基于更具政治偏见的训练数据的再训练模型是否改变了它们的行为和检测仇恨言论和错误信息的能力(确实改变了)。这项研究在一篇经过同行评审的论文中进行了描述,该论文在上个月的计算语言学协会会议上获得了最佳论文奖。

随着人工智能语言模型被推广到数百万人使用的产品和服务中,了解其潜在的政治假设和偏见再重要不过了。这是因为它们有可能造成真正的伤害。提供医疗保健建议的聊天机器人可能会拒绝提供堕胎或避孕建议,客服机器人则可能会开始胡言乱语。

自从 ChatGPT 推出以来,OpenAI 一直遭到右翼评论员的批评,他们声称该聊天机器人反映了一种更偏自由派的世界观。然而,该公司坚称,它正在努力解决这些问题,并在一篇博客文章中表示,它指示帮助微调人工智能模型的人类评审人员不要偏袒任何政治团体。尽管如此,上述过程中可能出现的偏见是 bug,而不是功能,上述文章中写道。

卡内基梅隆大学的博士研究员帕可·陈(Chan Park)是该研究小组的一员,她不同意这一观点。她说:我们相信,任何一种语言模型都不可能完全摆脱政治偏见。

每个阶段都有偏见

为了对人工智能语言模型如何产生政治偏见进行逆向工程,研究人员考察了模型发展的三个阶段。

测试14个AI大模型后发现,ChatGPT和GPT-4是最左翼的自由主义者

  • 下一篇即日起开启测试申请!小米小爱同学宣布升级AI大模型

    即日起开启测试申请!小米小爱同学宣布升级AI大模型

    原标题:即日起开启测试申请!小米小爱同学宣布升级AI大模型