1987WEB视界-分享互联网热门产品和行业

您现在的位置是:首页 > 人工智能AI > 正文

人工智能AI

研究发现:接受AI图像训练的AI模型会产生可怕的结果

1987web2023-08-23人工智能AI114
是不是有很多做CV图像目标检测的人,想过用AI生成图像的方式去做无法获取样本的专业领域图像识别,然而现实却是,AI训练AI会出现较大的问题。

是不是有很多做CV图像目标检测的人,想过用AI生成图像的方式去做无法获取样本的专业领域图像识别,然而现实却是,AI训练AI会出现较大的问题。

一项研究发现,用人工智能图像训练人工智能图像生成器会产生不好的结果。

斯坦福大学和莱斯大学的研究人员发现,生成人工智能(AI)模型需要新鲜的真实数据,否则输出的质量就会下降。

这对于摄影师和其他创作者来说是个好消息,因为研究人员发现训练数据集中的合成图像会放大伪影,使人类看起来越来越不像人类。

在上图(由研究团队成员 Nicola Papernot 发布到 X 上)中,由于模型与它应该合成的内容失去了联系,并被其数据集中的 AI 材料破坏,因此与真实分布发生了戏剧性的下降。

AI 模型疯狂

研究团队将这种人工智能病症命名为模型自噬障碍,简称MAD。自噬意味着自我消耗,在这种情况下,人工智能图像生成器正在消耗它自己创建的材料。

研究人员在研究中写道:如果自噬循环的每一代都没有足够的新鲜真实数据,未来的生成模型的质量(精度)或多样性(召回率)注定会逐渐下降。

这对人工智能的未来意味着什么?

如果该研究论文是正确的,那么这意味着人工智能将无法开发出无穷无尽的数据源。人工智能仍然需要真实、高质量的图像来不断进步,而不是依赖自己的输出。这意味着生成式人工智能将需要摄影师。

由于图片机构和摄影师现在非常清楚他们的知识产权资产已被集体用于训练人工智能图像生成器,这种技术怪癖可能会迫使人工智能公司获得训练数据的许可。

自从一年前 DALL-E 和 Midjourney 等公司突然出现以来,这些令人难以置信的新工具背后的公司一直坚持使用公开可用的数据来训练他们的模型。但这包括受版权保护的照片。

即使他们不会因构建人工智能图像生成器的第一次迭代而面临法律后果,但对于他们未来的模型,他们很可能需要图像专业人士的合作。