一些古怪的答案在网上疯传后,谷歌对人工智能生成的搜索摘要进行了修复

谷歌周五表示,在其重新设计的搜索引擎被发现输出错误信息后,它已对其人工智能系统进行了“十多项技术改进” 。

五月中旬,这家科技公司对其搜索引擎进行了改版,经常在搜索结果顶部提供人工智能生成的摘要。不久之后,社交媒体用户开始分享其最古怪答案的截图。

谷歌在很大程度上为其 AI 概览功能进行了辩护,称该功能通常很准确,并且事先经过了广泛的测试。但谷歌搜索业务负责人利兹·里德 (Liz Reid)在周五的一篇博客文章中承认,“确实出现了一些奇怪、不准确或无用的 AI 概览。”

虽然很多例子都很愚蠢,但其他例子则是危险或有害的谎言。更令人愤怒的是,一些人还制作了伪造的截图,声称这些截图显示的是谷歌从未生成过的更荒谬的答案。其中一些假截图也在社交媒体上广泛分享。

美联社上周向谷歌询问哪些野生蘑菇可以吃,谷歌用人工智能生成的长篇摘要作出回应,从技术上讲,这些摘要大部分是正确的,但“缺少很多信息,这些信息可能会导致人们生病,甚至死亡”,普渡大学真菌学和植物学教授玛丽凯瑟琳艾梅 (Mary Catherine Aime) 说,她审查了谷歌对美联社询问的回应。

例如,关于马勃菇的信息“或多或少是正确的”,她说,但谷歌的概述强调寻找那些具有纯白色菌肉的蘑菇——许多潜在致命的马勃菇模仿者也具有这种菌肉。

另一个被广泛分享的例子中,一位人工智能研究人员询问谷歌,有多少穆斯林担任过美国总统,而谷歌自信地用一个早已被揭穿的阴谋论回应道:“美国曾经有一位穆斯林总统,那就是巴拉克·侯赛因·奥巴马。”

谷歌上周立即采取了纠正措施,以防止重复奥巴马的错误,因为它违反了公司的内容政策。

在其他情况下,Reid 周五表示,它已寻求做出更广泛的改进,比如更好地检测“无意义的查询”,例如“我应该吃多少块石头?”,这些问题不应该用人工智能摘要来回答。

人工智能系统也进行了更新,以限制使用可能提供误导性建议的用户生成内容(例如 Reddit 上的社交媒体帖子)。在一个广为流传的例子中,谷歌的人工智能概述上周从 Reddit 的讽刺评论中摘录了一条建议使用胶水将奶酪粘在披萨上的讽刺评论。

里德表示,该公司还增加了更多“触发限制”,以提高某些查询(例如有关健康问题)的答案质量。

但目前尚不清楚这种方法是如何运作的,以及在什么情况下运作。周五,美联社再次向谷歌询问可以吃哪些野生蘑菇。人工智能生成的答案本质上是随机的,而最新的答案虽然不同,但仍然“有问题”,普渡大学蘑菇专家、美国真菌学会会长艾梅说。

例如,说“鸡油菌看起来像贝壳或花朵是不正确的,”她说。

Google 的摘要旨在让人们尽快获得他们所寻找信息的权威答案,而无需点击网站链接的排名列表。

但一些人工智能专家早就警告谷歌不要将其搜索结果交给人工智能生成的答案,因为这可能会延续偏见和错误信息,并危及寻求紧急帮助的人。被称为大型语言模型的人工智能系统的工作原理是根据它们所接受的训练数据预测哪些词最能回答它们提出的问题。它们很容易编造东西——这是一个被广泛研究的问题,被称为幻觉。

在周五的博客文章中,里德表示,谷歌的人工智能概览“通常不会像其他基于大型语言模型的产品那样‘产生幻觉’或编造事物,因为它们与谷歌的传统搜索引擎结合更紧密,只显示顶级网络结果支持的内容。

她写道:“当 AI Overviews 出错时,通常是由于其他原因:误解查询、误解网络上的语言细微差别,或者没有大量可用的重要信息。”

但华盛顿大学教授、计算机科学家 Chirag Shah 表示,这种信息检索应该是 Google 的核心业务,他警告不要将搜索转向人工智能语言模型。即使 Google 的人工智能功能“从技术上讲不会编造不存在的东西”,它仍然会带回虚假信息(无论是人工智能生成的还是人造的),并将其纳入其摘要中。

沙阿表示:“如果说有什么不同的话,那就是情况更糟糕,因为几十年来人们至少信任谷歌的一件事——搜索。”

本站全部资讯来源于实验室原创、合作机构投稿及网友汇集投稿,仅代表个人观点,不作为任何依据,转载联系作者并注明出处:https://www.lvsky.net/352.html

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论