OpenAI 的新安全委员会由所有内部人员组成

OpenAI成立了一个新委员会,负责监督与公司项目和运营相关的“关键”安全决策。但 OpenAI 选择让公司内部人员(包括 OpenAI 首席执行官 Sam Altman)而不是外部观察员来担任委员会成员,此举必将引起伦理学家的愤怒。

根据 OpenAI 公司博客上的一篇文章,Altman 和安全与安保委员会的其他成员——OpenAI 董事会成员 Bret Taylor、Adam D'Angelo 和 Nicole Seligman 以及首席科学家 Jakub Pachocki、Aleksander Madry(领导 OpenAI 的“准备”团队)、Lilian Weng(安全系统负责人)、Matt Knight(安全负责人)和 John Schulman(“协调科学”负责人)——将负责评估 OpenAI 在未来 90 天内的安全流程和保障措施。OpenAI 表示,委员会随后将与 OpenAI 全体董事会分享其调查结果和建议,以供审查,届时它将“以符合安全和安保的方式”发布对任何采纳建议的更新。

OpenAI 写道:“OpenAI 最近开始训练其下一个前沿模型,我们预计最终的系统将使我们在 [通用人工智能] 的道路上更上一层楼。虽然我们很自豪能够构建和发布在能力和安全性方面都处于行业领先地位的模型,但我们欢迎在这个重要时刻进行激烈的辩论。”

过去几个月,OpenAI技术团队中安全方面的几位高层管理人员相继离职,其中一些前员工表示担心,他们认为这是故意降低人工智能安全性的举措。

丹尼尔·科科塔伊洛(Daniel Kokotajlo) 曾是 OpenAI 管理团队的成员,他在个人博客中写道,由于对 OpenAI 在发布日益强大的人工智能方面“负责任的行为”失去信心,他于 4 月辞职。OpenAI 联合创始人、前首席科学家伊利亚·苏茨克弗 (Ilya Sutskever)于 5 月离职,原因是他与阿尔特曼及其盟友进行了一场旷日持久的斗争——据报道,部分原因是阿尔特曼急于推出人工智能产品,却忽视了安全工作。

最近,前 DeepMind 研究员 Jan Leike 辞去了安全研究职务,他在 OpenAI 期间参与了 ChatGPT 和 ChatGPT 前身 InstructGPT 的开发,并在 X 上的一系列帖子中表示,他认为 OpenAI“没有走上正确解决人工智能安全问题的轨道”。上周离开 OpenAI 的人工智能政策研究员 Gretchen Krueger 赞同 Leike 的言论,呼吁该公司提高问责制和透明度,并“谨慎使用自己的技术”。

Quartz指出,除了 Sutskever、Kokotajlo、Leike 和 Krueger,自去年年底以来,OpenAI 至少有五名最注重安全的员工辞职或被解雇,其中包括前 OpenAI 董事会成员 Helen Toner 和 Tasha McCauley。在周日发表的《经济学人》专栏文章中,Toner 和 McCauley 写道,在 Altman 掌舵的情况下,他们不相信 OpenAI 能够承担自己的责任。

托纳和麦考利表示:“根据我们的经验,我们认为自治无法可靠地承受利润激励的压力。”

针对 Toner 和 McCauley 的观点,TechCrunch 本月早些时候报道称,OpenAI 的超级对齐团队(负责开发管理和引导“超级智能”AI 系统的方法)被承诺将获得该公司 20% 的计算资源,但实际上他们几乎连其中的一小部分都拿不到。超级对齐团队现已解散,其大部分工作都交由 Schulman 和OpenAI 于 12 月成立的安全顾问小组负责。

OpenAI 一直倡导对人工智能进行监管。与此同时,它还努力塑造这一监管,聘请了一名内部说客,并在越来越多的律师事务所雇佣说客,仅在 2023 年第四季度就花费了数十万美元用于美国游说。最近,美国国土安全部宣布,Altman 将成为其新成立的人工智能安全与保障委员会的成员之一,该委员会将为美国关键基础设施中“安全可靠地开发和部署人工智能”提供建议。

为了避免在由高管主导的安全与保障委员会面前出现道德问题,OpenAI 承诺保留第三方“安全、保障和技术”专家来支持委员会的工作,其中包括网络安全资深人士 Rob Joyce 和前美国司法部官员 John Carlin。然而,除了 Joyce 和 Carlin 之外,该公司尚未详细说明这个外部专家组的规模或组成,也没有透露该小组对委员会的权力和影响力的限度。

彭博专栏作家 Parmy Olson 在 X 上的一篇文章中指出,安全与保障委员会等企业监督委员会与谷歌的先进技术外部咨询委员会等 AI 监督委员会类似,“在实际监督方面几乎没有任何作为”。值得注意的是,OpenAI表示,它希望通过委员会解决对其工作的“有效批评”——当然,“有效批评”取决于旁观者的看法。

Altman 曾承诺,外部人士将在 OpenAI 的治理中发挥重要作用。他在 2016 年《纽约客》的一篇文章中表示,OpenAI 将“[计划] 一种方法,让世界各地的人们选举代表进入……治理委员会。”但这从未实现——而且目前看来不太可能实现。


本站全部资讯来源于实验室原创、合作机构投稿及网友汇集投稿,仅代表个人观点,不作为任何依据,转载联系作者并注明出处:https://www.lvsky.net/235.html

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论