月球上有猫?谷歌的人工智能工具产生误导性反应,令专家担心

如果你向谷歌询问猫是否曾经登上过月球,它会给出一个网站排名列表,这样你就可以自己找到答案。

现在它可以立即给出由人工智能生成的答案——这个答案可能是正确的,也可能不正确。

谷歌最新改版的搜索引擎在回答美联社记者的提问时说:“是的,宇航员在月球上见过猫,与它们玩耍,并照顾它们。”

文章还补充道:“例如,尼尔·阿姆斯特朗曾说,‘这是人类的一小步’,因为这是一只猫迈出的一小步。巴兹·奥尔德林也在阿波罗 11 号任务中部署了猫。”

这些都不是真的。自从谷歌本月推出人工智能概览以来,类似的错误信息(有些很有趣,有些则很有害)在社交媒体上被广泛分享。人工智能概览是对其搜索页面的一次大改造,它经常将摘要放在搜索结果的顶部。

这一新功能引起了专家的警惕,他们警告说,该功能可能会助长偏见和错误信息,并危及紧急寻求帮助的人们。

当新墨西哥州圣达菲研究所的人工智能研究员梅兰妮·米切尔向谷歌询问有多少位穆斯林担任过美国总统时,谷歌自信地用一个早已被揭穿的阴谋论回应道:“美国曾经有一位穆斯林总统,那就是巴拉克·侯赛因·奥巴马。”

米切尔表示,摘要引用了历史学家撰写的一本学术书籍中的一章来支持这一说法。但该章节并没有提出虚假的主张——它只是提到了错误的理论。

米切尔在给美联社的电子邮件中表示:“谷歌的人工智能系统还不够聪明,无法弄清楚这个引文实际上并没有支持这一说法。考虑到它的不可信程度,我认为这个人工智能概览功能非常不负责任,应该下线。”

谷歌周五在一份声明中表示,它正在采取“迅速行动”来修复违反其内容政策的错误(例如奥巴马的谎言);并利用这些错误来“进行更广泛的改进”,这些改进已经推出。但在大多数情况下,谷歌声称该系统运行正常,这要归功于在公开发布之前进行的广泛测试。

谷歌在一份书面声明中表示:“绝大多数人工智能概述都提供了高质量的信息,并提供了深入挖掘网络的链接。我们看到的许多例子都是不常见的查询,我们也看到了被篡改或我们无法重现的例子。”

人工智能语言模型的错误很难重现——部分原因是这些错误本质上是随机的。它们的工作原理是根据训练数据预测哪些单词最能回答问题。它们很容易编造故事——这是一个被广泛研究的问题,被称为幻觉。

美联社用几个问题测试了谷歌的人工智能功能,并与相关领域专家分享了部分答案。加州州立大学北岭分校生物学教授、美国鱼类和爬虫学家协会主席罗伯特·埃斯皮诺萨表示,当被问及如何处理蛇咬伤时,谷歌的回答“令人印象深刻地详尽”。

但当人们向谷歌寻求紧急问题时,这家科技公司给出的答案很可能包含难以察觉的错误,这是一个问题。

“你越是紧张、匆忙或着急,你就越有可能选择第一个想到的答案,”华盛顿大学计算语言学实验室主任兼语言学教授艾米丽·M·本德 (Emily M. Bender) 说道。“在某些情况下,这些情况可能关乎生命。”

这并不是本德唯一的担忧——她已经警告谷歌好几年了。2021 年,谷歌研究人员发表了一篇名为《重新思考搜索》的论文,提议使用人工智能语言模型作为“领域专家”,可以权威地回答问题——就像他们现在所做的那样——本德和同事奇拉格·沙阿发表了一篇论文,阐述了为什么这是一个坏主意。

他们警告说,此类人工智能系统可能会延续其训练所依据的大量书面数据中发现的种族主义和性别歧视。

“这种错误信息的问题在于,我们正深陷其中,”本德说。“因此,人们的偏见很可能会得到证实。当错误信息证实了你的偏见时,就更难发现它了。”

另一个担忧则更为深层——将信息检索功能交给聊天机器人会降低人类搜索知识的偶然性、对在线内容的了解程度以及在网上论坛上与经历同样事情的其他人进行交流的价值。

这些论坛和其他网站都依赖谷歌来吸引访客,但谷歌新的人工智能概览可能会扰乱赚钱的互联网流量。

谷歌的竞争对手也在密切关注这一反应。一年多来,这家搜索巨头一直面临着提供更多人工智能功能的压力,因为它要与 ChatGPT 制造商 OpenAI 以及 Perplexity AI 等新贵竞争,后者希望用自己的人工智能问答应用与谷歌一较高下。

Perplexity 首席商务官 Dmitry Shevelenko 表示:“这似乎是谷歌匆忙推出的。质量上存在很多非受迫性错误。”

本站全部资讯来源于实验室原创、合作机构投稿及网友汇集投稿,仅代表个人观点,不作为任何依据,转载联系作者并注明出处:https://www.lvsky.net/191.html

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论