37 岁的苏茨克弗通过倡导扩展假设在开发 ChatGPT 等生成式 AI 模型中发挥了关键作用,该假设认为 AI 性能会随着计算能力的增强而提高。
OpenAI 前首席科学家 Ilya Sutskever 创办了一家名为 Safe Superintelligence (SSI) 的新公司,旨在开发远远超越人类智能的安全 AI 系统。Sutskever 在接受采访时解释说,SSI 的目标是采取与 OpenAI 不同的 AI 扩展方法,强调超级智能系统的安全性。他认为,一旦实现超级智能,它将改变我们对 AI 的理解,并为确保其安全使用带来新的挑战。
Sutskever 承认,定义什么是“安全”的人工智能仍是一项正在进行的工作,需要大量研究来解决所涉及的复杂性。他还强调,随着人工智能变得越来越强大,安全问题将加剧,因此严格测试和评估人工智能系统至关重要。虽然该公司不打算开源其所有工作,但可能有机会分享其与超级智能安全相关的部分研究。
SSI 的目标是为更广泛的人工智能社区的安全工作做出贡献,Sutskever 对此持积极态度。他相信,随着人工智能公司的进步,他们将意识到他们面临的安全挑战的严重性,而 SSI 可以为这一持续的对话做出宝贵贡献。
评论