社交媒体用户利用表情包成为攻击不成熟 AI 功能的红队

谷歌的新AI 搜索功能称:“拿着剪刀跑是一项有氧运动,可以提高心率,需要集中注意力。有人说它还可以改善毛孔,给你力量。”

谷歌的人工智能功能从一个名为Little Old Lady Comedy的网站提取了这一回应,顾名思义,这是一个喜剧博客。但这个失态行为太荒谬了,以至于它和其他明显不正确的谷歌人工智能概述一起在社交媒体上流传。实际上,日常用户现在正在社交媒体上对这些产品进行红队测试。

在网络安全领域,一些公司会雇佣“红队”——道德黑客——他们试图像坏人一样入侵他们的产品。如果红队发现漏洞,那么公司可以在产品发货前修复它。谷歌在谷歌搜索上发布人工智能产品之前确实进行过某种形式的红队测试,据估计,谷歌搜索每天要处理数万亿次查询。

因此,当像谷歌这样资源丰富的公司仍然推出有明显缺陷的产品时,这令人感到惊讶。这就是为什么现在嘲笑人工智能产品的失败已经成为一种模因,尤其是在人工智能变得越来越普遍的时代。我们已经看到了这一点,ChatGPT上的拼写错误,视频生成器无法理解人类如何吃意大利面, X 上的Grok AI新闻摘要与谷歌一样,不懂讽刺。但这些模因实际上可以作为开发和测试人工智能公司的有用反馈。

尽管这些缺陷引人注目,但科技公司往往淡化其影响。

“我们看到的例子通常是非常不常见的查询,并不代表大多数人的体验,”谷歌在一封电子邮件中告诉 TechCrunch。“我们在推出这一新体验之前进行了广泛的测试,并将使用这些孤立的例子来继续完善我们的整体系统。”

并非所有用户都会看到相同的 AI 结果,而且当一个特别糟糕的 AI 建议传开时,问题通常已经得到纠正。在最近一个广为流传的案例中,谷歌建议,如果你在做披萨,但奶酪粘不住,你可以在酱汁中加入大约八分之一杯的胶水,以“增加粘性”。事实证明,AI 是从一个名为“f––smith”的用户11 年前在 Reddit 上发表的评论中提取出这个答案的。

这不仅是一次令人难以置信的失误,还表明人工智能内容交易可能被高估。例如,谷歌与 Reddit 签订了一份价值 6000 万美元的合同,授权其内容用于人工智能模型训练。Reddit 上周与OpenAI签署了类似的协议,据传Automattic 旗下的 WordPress.org 和 Tumblr 正在洽谈向 Midjourney 和 OpenAI 出售数据。

值得赞扬的是,社交媒体上流传的很多错误都来自旨在绊倒人工智能的非常规搜索。至少我希望没有人认真地搜索“拿着剪刀跑步的健康益处”。但其中一些失误更为严重。科学记者艾琳·罗斯在 X 上发帖称,谷歌吐出了关于被响尾蛇咬伤后该怎么做的错误信息。

罗斯的帖子获得了超过 13,000 个赞,其中显示人工智能建议在伤口上绑止血带、切开伤口并吸出毒液。根据美国森林管理局的说法,如果你被咬伤,这些都是你不应该做的事情。与此同时,在 Bluesky 上,作者 T Kingfisher 放大了一篇帖子,该帖子显示谷歌的 Gemini将一种有毒蘑菇误认为是一种普通的白蘑菇——该帖子的截图已传播到其他平台,以作为警示。

当糟糕的人工智能回应迅速传播开来时,人工智能可能会因为随之而来的围绕该主题的新内容而更加困惑。周三,《纽约时报》记者阿里克·托勒在 X 上发布了一张截图,其中显示了一条查询,询问一只狗是否曾在 NHL 打过球。人工智能的回答是肯定的——出于某种原因,人工智能称卡尔加里火焰队球员马丁·波斯皮希尔为狗。现在,当你进行同样的查询时,人工智能会从Daily Dot上调出一篇文章,讲述谷歌的人工智能如何一直认为狗在参加体育运动。人工智能被灌输了自己的错误,这进一步毒害了它。

这是在互联网上训练这些大规模人工智能模型的固有问题:有时,互联网上的人们会撒谎。但就像没有规则禁止狗打篮球一样,不幸的是,也没有规则禁止大型科技公司推出劣质人工智能产品。

俗话说:垃圾进,垃圾出。

本站全部资讯来源于实验室原创、合作机构投稿及网友汇集投稿,仅代表个人观点,不作为任何依据,转载联系作者并注明出处:https://www.lvsky.net/163.html

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论