研究人员发现,聊天机器人可以告诉人们他们想听的内容

约翰·霍普金斯大学领导的新研究表明,聊天机器人共享有限的信息,强化意识形态,因此在涉及有争议的问题时可能会导致更加两极分化的思维。

这项研究挑战了人们对聊天机器人公正的看法,并深入了解了使用对话式搜索系统如何扩大公众在热点问题上的分歧,并使人们容易受到操纵。

“因为人们正在阅读人工智能生成的摘要段落,所以他们认为他们得到的是公正的、基于事实的答案,”主要作者、约翰霍普金斯大学研究人机交互的计算机科学助理教授 Ziang Xiao 说道。“即使聊天机器人的设计没有偏见,它的答案也会反映出提问者的偏见或倾向。所以实际上,人们得到的是他们想听到的答案。”

肖和他的团队于美国东部时间 5 月 13 日星期一下午 5 点在美国计算机协会的“计算机系统人为因素” CHI 会议上分享了他们的研究成果。

为了了解聊天机器人如何影响在线搜索,该团队比较了人们如何与不同的搜索系统交互,以及他们在使用这些系统之前和之后对有争议的问题的感受。

研究人员要求 272 名参与者写下他们对医疗保健、学生贷款或庇护城市等主题的想法,然后使用聊天机器人或为本研究构建的传统搜索引擎在线查找有关该主题的更多信息。

在考虑搜索结果后,参与者写了第二篇文章并回答了有关该主题的问题。研究人员还让参与者阅读了两篇相反的文章,并询问他们对这些信息的信任程度以及他们是否发现这些观点极端。

研究人员发现,由于聊天机器人提供的信息范围比传统的网络搜索更窄,并且提供的答案反映了参与者先前存在的态度,因此使用聊天机器人的参与者变得更加投入于自己的原创想法,并对挑战他们观点的信息做出更强烈的反应。

“人们倾向于寻找与自己观点一致的信息,这种行为常常使他们陷入志同道合的观点的回音室,”肖说。 “我们发现聊天机器人的回音室效应比传统的网络搜索更强。”

肖说,回声室部分源于参与者与聊天机器人互动的方式。聊天机器人用户不像人们在传统搜索引擎中那样输入关键字,而是倾向于输入完整的问题,例如“全民医疗保健有什么好处?”或“全民医疗保健的成本是多少?”聊天机器人会回答一个仅包含收益或成本的摘要。

“有了聊天机器人,人们往往会更善于表达,并以更加对话的方式提出问题。这是我们说话方式的一个功能,”肖说。 “但我们的语言可能会被用来对付我们。”

肖说,人工智能开发人员可以训练聊天机器人从问题中提取线索并识别人们的偏见。一旦聊天机器人知道一个人喜欢或不喜欢什么,它就可以调整其响应以匹配。

事实上,当研究人员创建一个具有隐藏议程、旨在与人们达成一致的聊天机器人时,回声室效应甚至更强。

为了试图抵消回音室效应,研究人员训练了一个聊天机器人来提供与参与者不同意见的答案。肖说,人们的观点没有改变。研究人员还编写了一个聊天机器人来链接到源信息,以鼓励人们进行事实核查,但只有少数参与者这样做了。

“鉴于基于人工智能的系统变得越来越容易构建,恶意行为者将有机会利用人工智能来制造一个更加两极分化的社会,”肖说。 “创建总是提出对方意见的代理是最明显的干预措施,但我们发现它们不起作用。”

作者包括约翰·霍普金斯大学研究生 Nikhil Sharma 和微软首席研究员 Q. Vera Liao。


本站全部资讯来源于实验室原创、合作机构投稿及网友汇集投稿,仅代表个人观点,不作为任何依据,转载联系作者并注明出处:https://www.lvsky.net/32.html

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论