Google 研究,2022 年及以后:负责任的 AI

1725869280704.jpg

去年,人工智能 (AI) 取得了巨大突破,尤其是在大型语言模型 (LLM) 和文本转图像模型方面。这些技术进步要求我们在开发和部署方面深思熟虑、有意识。在这篇博文中,我们分享了我们在过去一年的研究中对负责任的人工智能的处理方式以及我们在 2023 年的发展方向。我们重点介绍了四个主要主题,涵盖基础和社会技术研究、应用研究和产品解决方案,这是我们致力于以负责任和合乎道德的方式构建人工智能产品的一部分,符合我们的人工智能原则。

  · 主题一:负责任的人工智能研究进展

  · 主题二:负责任的产品人工智能研究

  · 主题三:工具与技术

  · 主题四:展示人工智能的社会效益

主题一:负责任的人工智能研究进展

机器学习研究

当机器学习 (ML) 系统在现实世界中使用时,它们可能无法按预期的方式运行,从而降低其实际效益。我们的研究确定了可能出现意外行为的情况,以便我们能够减轻不良后果。

在多种类型的 ML 应用中,我们发现模型通常缺乏充分指定,这意味着它们在训练时表现良好,但在新情况下可能不够稳健或公平,因为模型依赖于“虚假相关性”——无法推广的特定副作用。这对 ML 系统开发人员构成了风险,需要新的模型评估实践。

我们调查了机器学习研究人员目前使用的评估实践,并在解决常见机器学习陷阱的工作中引入了改进的评估标准。我们确定并演示了减轻因果“捷径”的技术,这些因果“捷径”导致机器学习系统缺乏稳健性并依赖敏感属性(如年龄或性别)。

捷径学习:年龄影响正确的医疗诊断。

为了更好地了解稳健性问题的原因和缓解方法,我们决定深入研究特定领域的模型设计。在计算机视觉领域,我们研究了新视觉变换模型的稳健性,并开发了新的负数据增强技术来提高其稳健性。对于自然语言任务,我们同样研究了不同的数据分布如何改善不同群体的泛化能力,以及集成和预训练模型如何提供帮助。

我们机器学习工作的另一个关键部分是开发技术以构建更具包容性 的模型。例如,我们寻求外部社区的帮助,通过参与式系统来了解我们的评估何时以及为何会失败,这些系统明确地实现了预测的共同所有权,并允许人们选择是否披露敏感话题。

社会技术研究

为了将多种文化背景和声音纳入 AI 开发和评估,我们加强了以社区为基础的研究工作,重点关注那些代表性较低或可能遭遇 AI 不公平结果的特定社区。我们特别研究了对不公平性别偏见的评估,包括自然语言和性别包容性健康等背景。这项工作正在推动对不公平性别偏见的更准确评估,以便我们的技术评估和减轻对具有酷儿和非二元身份的人的伤害。

除了公平性方面的进步,我们在开发文化包容性人工智能的更大努力中也取得了关键的里程碑。我们倡导跨文化考虑在人工智能中的重要性——特别是用户对人工智能的态度和问责机制的文化差异——并构建了能够进行文化评估的数据和技术,重点关注全球南方。我们还在各种情况下描述了机器翻译的用户体验,并提出了以人为本的改进机会。

以人为本的研究

在 Google,我们专注于推进以人为本的研究和设计。最近,我们的工作展示了如何使用 LLM快速原型化新的基于 AI 的交互。我们还发布了五个新的交互式可探索可视化,向研究界介绍了关键思想和指导,包括如何使用显着性来检测 ML 模型中的意外偏差,以及如何使用联合学习来协作训练模型,使用来自多个用户的数据,而无需任何原始数据离开他们的设备。

我们的可解释性研究探索了如何将语言模型的行为追溯到训练数据本身,提出了比较模型关注点差异的新方法,如何解释突发行为,以及如何识别模型学习到的人类可理解的概念。我们还提出了一种新的推荐系统方法,使用自然语言解释让人们更容易理解和控制他们的推荐。

创造力与人工智能研究

我们与创意团队就人工智能技术与创造力之间迅速变化的关系展开了对话。在创意写作领域,谷歌的PAIR和Magenta团队开发了一种新颖的创意写作原型,并组织了一场作家研讨会,探讨人工智能在协助创意写作方面的潜力和局限性。来自不同创意作家的故事连同研讨会见解一起出版成集。在时尚领域,我们探索了时装设计与文化表现之间的关系,在音乐领域,我们开始研究人工智能工具对音乐的风险和机遇。

顶部

主题 2:负责任的产品人工智能研究

能够看到自己在周围世界中的倒影非常重要,但基于图像的技术通常缺乏公平的代表性,使有色人种感到被忽视和误解。除了努力改善 Google 产品中不同肤色的代表性之外,我们还推出了一个新的肤色量表,旨在更包容全球各种肤色。我们与哈佛大学教授兼社会学家Ellis Monk 博士合作,发布了Monk 肤色 (MST) 量表,这是一个 10 度色度的量表,可供研究界和行业专业人士用于研究和产品开发。此外,此量表正在整合到我们的产品功能中,延续了我们长期以来的努力,以改善 Google 相册中图片搜索和滤镜的多样性和肤色代表性。

僧侣肤色等级有 10 种。

这是“负责任的研究 AI”与公司各产品部门紧密合作以指导研究和开发新技术的众多示例之一。在另一个示例中,我们利用过去对自然语言反事实数据增强的研究来改进安全搜索,将意外的令人震惊的搜索结果减少了 30%,尤其是在与种族、性取向和性别相关的搜索中。为了改进视频内容审核,我们开发了新方法,帮助人类评分者将注意力集中在更有可能包含政策违规行为的长视频片段上。此外,我们还在继续研究开发更精确的方法来评估推荐系统中的平等待遇,同时考虑到用户和用例的广泛多样性。

在大型模型领域,我们将负责任的 AI 最佳实践纳入开发过程,创建模型卡和数据卡(更多详细信息见下文)、负责任的 AI 基准以及GLaM、 PaLM、 Imagen和Parti等模型的社会影响分析。我们还表明,指令微调可以为负责任的 AI 基准带来许多改进。由于生成模型通常在人工注释的数据上进行训练和评估,因此我们专注于以人为本的考虑因素,例如评分者分歧和评分者多样性。我们还展示了使用大型模型来提高其他系统的责任感的新功能。例如,我们探索了语言模型如何为反事实公平性探测生成更复杂的反事实。我们将在 2023 年继续关注这些领域,并了解对下游应用的影响。

顶部

主题 3:工具和技术

负责任的数据

数据文档:

我们扩展了之前在模型卡和模型卡工具包方面的工作,发布了数据卡和数据卡手册,为开发人员提供了记录与模型或数据集相关的适当用途和基本事实的方法和工具。我们还推进了数据文档最佳实践的研究,例如说明数据集的来源、注释流程、预期用例、道德考虑和演变。我们还将其应用于医疗保健,创建了“健康表”作为我们国际Standing Together合作的基础,将患者、医疗专业人员和政策制定者聚集在一起,制定标准,确保数据集的多样性和包容性,并使 AI 民主化。

新数据集:

公平性:我们发布了一个新数据集,以协助 ML 公平性和对抗性测试任务,主要用于生成文本数据集。该数据集包含 590 个单词和短语,这些单词和短语显示了形容词、单词和短语之间的相互作用,这些形容词、单词和短语已被证明与特定个人和群体具有刻板的关联,具体取决于他们的敏感或受保护特征。

数据集中敏感特征的部分列表,表示它们与形容词和刻板关联的关联。

毒性:我们构建并公开发布了包含 10,000 条帖子的数据集,以帮助确定评论的毒性何时取决于其所回复的评论。这提高了审核辅助模型的质量,并支持研究社区寻找更好的方法来纠正网络毒性。

社会背景数据:我们使用实验性社会背景存储库(SCR) 为Perspective团队提供辅助身份和内涵背景数据,这些数据涉及多种语言的种族、宗教、年龄、性别或性取向等类别。这些辅助社会背景数据有助于扩充和平衡数据集,从而显著减少意外偏见,并已应用于广泛使用的 Perspective API毒性模型。

学习可解释性工具 (LIT)

开发更安全的模型的一个重要部分是拥有帮助调试和理解模型的工具。为了支持这一点,我们发布了学习可解释性工具(LIT) 的重大更新,这是一个用于可视化和理解 ML 模型的开源平台,现在支持图像和表格数据。该工具已在 Google 中被广泛用于调试模型、审查模型版本、识别公平性问题和清理数据集。它现在还允许您可视化比以前多 10 倍的数据,一次最多支持数十万个数据点。

语言可解释性工具的屏幕截图,在数据表上显示生成的句子。

反事实 Logit 配对

当输入中引用的敏感属性被移除或替换时,ML 模型有时容易出现预测偏差。例如,在毒性分类器中,“我是男性”和“我是女同性恋”等示例可能会错误地产生不同的输出。为了让开源社区的用户能够解决 ML 模型中的意外偏见,我们推出了一个新库,即反事实 Logit 配对(CLP),它可以提高模型对此类扰动的稳健性,并可以对模型的稳定性、公平性和安全性产生积极影响。

可以使用反事实逻辑配对来缓解公平性预测的说明。

顶部

主题四:展示人工智能的社会效益

我们相信,人工智能可用于探索和解决人道主义和环境问题方面的难题。我们的研究和工程工作涉及许多领域,包括无障碍设施、健康和媒体表现,最终目标是促进包容性并切实改善人们的生活。

无障碍设施

经过多年的研究,我们推出了Project Relate,这是一款Android 应用,它使用基于 AI 的个性化语音识别模型,使非标准语音的人能够更轻松地与他人交流。该应用可供澳大利亚、加拿大、加纳、印度、新西兰、英国和美国的 18 岁以上英语使用者使用。

为了促进人工智能的发展,造福残障人士,我们还启动了语音无障碍项目。该项目是谷歌、亚马逊、苹果、Meta、微软和伊利诺伊大学厄巴纳-香槟分校研究人员多年合作的成果。该项目将建立一个大型语音障碍数据集,供开发人员使用,以支持无障碍应用的研究和产品开发。这项工作还补充了我们通过改进利用用户目光的技术来 帮助严重运动和言语障碍人士的努力。

健康

我们还致力于开发技术,以改善受慢性病影响的人们的生活,同时解决系统性不平等问题,并实现透明的数据收集。随着健身追踪器和手机等消费技术成为健康数据收集的核心,我们探索了利用技术提高临床风险评分的可解释性,更好地预测慢性病的残疾评分,从而实现早期治疗和护理。此外,我们提倡基础设施和工程在这一领域的重要性。

许多健康应用使用专门用于计算生物特征和基准的算法,并根据出生性别等变量生成建议,但可能无法考虑用户当前的性别认同。为了解决这个问题,我们完成了一项针对跨性别和非二元性别消费者技术和数字健康应用用户的大型国际研究,以了解这些技术中使用的数据收集和算法如何发展以实现公平。

媒体

我们与吉娜·戴维斯媒体性别研究所(GDI)和南加州大学 (USC) 的信号分析与解释实验室(SAIL) 合作,研究了 12 年来电视中的性别代表性。该报告基于对超过 440 小时电视节目的分析,重点介绍了调查结果,并指出浅色和深色皮肤角色、男性和女性角色以及年轻和年长角色在屏幕和说话时间方面存在显著差异。这种首创的合作使用先进的 AI 模型来了解以人为本的故事在媒体中的呈现方式,最终目标是激励主流媒体中的公平代表性。

顶部

2023 年及以后的计划

我们致力于创造研究和产品,为每个人带来积极、包容和安全的体验。首先,我们要了解我们创新工作中固有的人工智能风险和安全的诸多方面,并在形成这种理解的过程中听取不同群体的意见。

负责任的人工智能研究进展:我们将努力通过改进的指标和评估来了解我们所创造的技术的含义,并设计方法使人们能够利用技术成为更好的世界公民。

产品中负责任的人工智能研究:随着产品利用新的人工智能功能来获得新的用户体验,我们将继续与产品团队密切合作,以了解和衡量其社会影响,并开发新的建模技术,使产品能够遵守Google 的人工智能原则。

工具和技术:我们将开发新技术来提高我们发现未知故障、解释模型行为的能力,并通过训练、负责任的生成和故障缓解来改进模型输出。

展示人工智能的社会效益:我们计划扩大人工智能在实现全球目标方面的努力,汇集研究、技术和资金,以加速实现可持续发展目标的进程。这项承诺将包括2500 万美元用于支持非政府组织和社会企业。我们将通过与社区专家和受影响社区建立更多合作关系,进一步推进我们在包容性和公平性方面的工作。这包括继续举办公平人工智能研究圆桌会议 (EARR),重点关注人工智能的潜在影响和下游危害,与加州大学伯克利分校他者化和归属研究所、 PolicyLink和埃默里大学法学院 的社区专家一起探讨人工智能的潜在影响和下游危害。

以负责任和道德的方式构建机器学习模型和产品是我们的核心重点和核心承诺。

致谢

这项工作体现了负责任的人工智能和以人为本的技术社区的努力,从研究人员和工程师到产品和项目经理,他们都为将我们的工作带入人工智能社区做出了贡献。

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论