OpenAI 内部人士在公开信中呼吁加强监督和举报人保护

人工智能界的知名人士赞同这封信,批评人工智能公司对人工智能技术的潜在危险准备不足。

周二,一群现任和前任OpenAI员工发表了一封公开信,警告称领先的人工智能公司缺乏必要的透明度和问责制,无法应对潜在风险。这封信强调了人工智能安全问题,例如加剧不平等、错误信息和对自主系统的失控,这些都可能导致灾难性的后果。

包括谷歌 DeepMind员工在内的 16 名签名者强调,人工智能公司有经济动机来逃避有效监管,并批评它们在分享关键信息方面的义务薄弱。他们呼吁加强对举报人的保护,并指出保密协议通常会阻止员工提出担忧。一些现任 OpenAI 员工匿名签署了这封信,担心遭到报复。Yoshua Bengio、Geoffrey Hinton和Stuart Russell等人工智能先驱也支持这封信,批评他们对人工智能的危险准备不足。

这封信还呼吁人工智能公司遵守主要原则,以保持一定程度的问责制和透明度。这些原则包括:不签订或执行任何禁止因风险相关问题“贬低”或批评公司的协议,也不对风险相关批评进行报复;为现任和前任员工提供可验证的匿名流程,以便他们向公司董事会、监管机构和具有相关专业知识的适当独立组织提出风险相关担忧;支持公开批评的文化,允许现任和前任员工向公众、公司董事会、监管机构或具有相关专业知识的适当独立组织提出对其技术的风险相关担忧,只要商业机密和其他知识产权利益得到适当保护。

为什么这有关系?

作为回应,OpenAI 为其记录辩护,称其致力于安全、严谨的辩论以及与各利益相关者的接触。该公司强调其匿名诚信热线和新成立的安全与保障委员会是员工关切的渠道。对 OpenAI 的批评出现在对首席执行官 Sam Altman 领导能力的审查日益严格的背景下。OpenAI 内部人士提出的担忧凸显了人工智能开发中透明度和问责制的迫切需要。确保人工智能公司受到有效监督和问责,确保内部人士能够公开谈论不道德或危险的做法而不必担心遭到报复,这是向公众和决策者告知人工智能潜在能力和风险的关键保障。

本站全部资讯来源于实验室原创、合作机构投稿及网友汇集投稿,仅代表个人观点,不作为任何依据,转载联系作者并注明出处:https://www.lvsky.net/514.html

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论