前 OpenAI 科学家致力于安全地开发超级智能 AI

37 岁的苏茨克弗通过倡导扩展假设在开发 ChatGPT 等生成式 AI 模型中发挥了关键作用,该假设认为 AI 性能会随着计算能力的增强而提高。

1725628587604.jpg

OpenAI 前首席科学家 Ilya Sutskever 创办了一家名为 Safe Superintelligence (SSI) 的新公司,旨在开发远远超越人类智能的安全 AI 系统。Sutskever 在接受采访时解释说,SSI 的目标是采取与 OpenAI 不同的 AI 扩展方法,强调超级智能系统的安全性。他认为,一旦实现超级智能,它将改变我们对 AI 的理解,并为确保其安全使用带来新的挑战。

Sutskever 承认,定义什么是“安全”的人工智能仍是一项正在进行的工作,需要大量研究来解决所涉及的复杂性。他还强调,随着人工智能变得越来越强大,安全问题将加剧,因此严格测试和评估人工智能系统至关重要。虽然该公司不打算开源其所有工作,但可能有机会分享其与超级智能安全相关的部分研究。

SSI 的目标是为更广泛的人工智能社区的安全工作做出贡献,Sutskever 对此持积极态度。他相信,随着人工智能公司的进步,他们将意识到他们面临的安全挑战的严重性,而 SSI 可以为这一持续的对话做出宝贵贡献。

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论