我们能否消除人工智能的偏见?

建立在大量潜在偏见信息之上的人工智能确实带来了自动歧视的风险,但有什么方法可以对机器进行重新教育呢?

对于一些人来说,这个问题非常紧迫。在这个 ChatGPT 时代,人工智能将使用从互联网上搜索到的任何内容作为源材料,为医疗保健提供者、银行贷款机构或律师做出越来越多的决策。

因此,人工智能的潜在智能取决于它所来自的世界,可能充满智慧、有用性,也可能充满仇恨、偏见和咆哮。

“这很危险,因为人们正在拥抱和采用人工智能软件,并且真正依赖它,”法律咨询公司德克萨斯机会与正义孵化器主任约书亚韦弗说。

他说:“我们可以进入这个反馈循环,我们自己和文化的偏见会影响人工智能的偏见,并成为一种强化循环。”

确保技术更准确地反映人类多样性不仅仅是一个政治选择。

人工智能的其他用途,例如面部识别,已经导致一些公司因歧视而陷入当局的困境。

据美国联邦贸易委员会称,美国连锁药店 Rite-Aid 的案件就是如此,该公司店内的摄像头将消费者,尤其是女性和有色人种,错误地标记为商店扒手。

“搞错了”

专家担心,ChatGPT 式的生成式人工智能可以在短短几秒钟内创造出人类水平的推理能力,这为出错提供了新的机会。

人工智能巨头很清楚这个问题,担心他们的模型可能会陷入不良行为,或者当他们的用户群遍布全球时过度反映西方社会。

谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)表示:“有人向我们询问来自印度尼西亚或美国的问题。”他解释了为什么要求提供医生或律师的照片将努力反映种族多样性。

但这些考虑可能会达到荒谬的程度,并导致过度政治正确的愤怒指责。

这就是当谷歌的 Gemini 图像生成器吐出一张第二次世界大战德国士兵的图像时所发生的事情,其中荒谬地包括一名黑人男子和亚洲妇女。

“显然,错误在于我们过度应用了......它本来不应该应用的地方。这是一个错误,我们错了,”皮查伊说。

但人工智能模型领先平台 Hugging Face 的研究科学家 Sasha Luccioni 警告说,“认为有技术解决偏见的想法已经走上了错误的道路。”

她说,生成式人工智能本质上是关于输出是否“符合用户的期望”,这在很大程度上是主观的。

Alembic Technologies 产品主管 Jayden Ziegler 警告说,ChatGPT 所基于的巨大模型“无法推理出什么是有偏见的,什么是没有偏见的,所以他们对此无能为力”。

至少目前,人类必须确保人工智能能够生成合适的或符合他们期望的内容。

“烘焙”偏见

但考虑到人工智能的狂热,这并不是一件容易的事。

Hugging Face 的平台上有大约 600,000 个人工智能或机器学习模型。

“每隔几周就会出现一个新模型,我们会忙于评估和记录偏见或不良行为,”卢乔尼说。

正在开发的一种方法称为算法归还,它允许工程师在不破坏整个模型的情况下删除内容。

但人们严重怀疑这是否真的有效。

Pinecone首席技术官拉姆·斯里哈沙 (Ram Sriharsha) 表示,另一种方法是“鼓励”模型朝正确的方向发展,对其进行“微调”,“对正确和错误进行奖励”。

Pinecone 是检索增强生成(RAG)领域的专家,这是一种模型从固定可信源获取信息的技术。

对于德克萨斯州机会与正义孵化器的韦弗来说,这些纠正偏见的“崇高”尝试是“我们对未来更好版本的希望和梦想的预测”。

但偏见“也是人类固有的含义,正因为如此,它也融入了人工智能,”他说。


本站全部资讯来源于实验室原创、合作机构投稿及网友汇集投稿,仅代表个人观点,不作为任何依据,转载联系作者并注明出处:https://www.lvsky.net/27.html

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论