人工智能能比人类更聪明吗?

背景是什么?

“通用人工智能”(AGI)——其好处、对安全和就业带来的风险,以及它有可能实现吗?

  • 科技公司致力于开发“比人类更聪明”的人工智能

  • 传统人工智能缺乏感官知觉、新思路

  • 更先进的模型可能会增加人工智能的优缺点

伦敦——研究员 Jan Leike 上个月辞去了 OpenAI 的工作,他警告说,该科技公司的“安全文化和流程已经退居次要地位”,因为它正在训练下一个人工智能模型。

他尤其对该公司开发“通用人工智能”的目标表示担忧,“通用人工智能”是一种增强型机器学习形式,据称将“比人类更聪明”。

一些行业专家表示,AGI 可能在 20 年内实现,但其他人则表示,即使能实现,也需要几十年的时间。 

但是,什么是 AGI,应该如何监管它,以及它会对人们和就业产生什么影响?

什么是 AGI?

OpenAI 将 AGI 定义为“通常比人类更聪明”的系统。科学家们对 AGI 的确切含义意见不一。

“狭义”人工智能包括 ChatGPT,它可以执行一项特定的单一任务。它通过模式匹配来工作,类似于在不了解各个部分代表什么的情况下拼凑拼图,并且没有计算或完成逻辑拼图的能力。

阿达·洛夫莱斯研究所副主任安德鲁·斯特雷特 (Andrew Strait) 告诉 Context:“我以前在 Deepmind(谷歌的人工智能研究实验室)工作时,有一个流行的笑话,说 AGI 是我们还没有拥有的东西。”

IBM 提出,人工智能需要至少七种关键技能才能达到 AGI,包括视觉和听觉感知、在不完整信息下做出决策以及创造新的想法和概念。

AGI 的风险是什么?

狭义人工智能已在许多行业中得到应用,但也造成了许多问题,例如律师引用“幻觉”——虚构的法律先例,招聘人员使用有偏见的服务来检查潜在员工。

AGI 仍然缺乏定义,因此专家很难描述它可能带来的风险。

AGI可能会更好地过滤偏见和不正确的信息,但也可能会出现新的问题。

斯特雷特表示,一个“非常严重的风险”是对新系统过度依赖,“特别是当它们开始调解更为敏感的人与人之间的关系时”。

人工智能系统还需要大量数据进行训练,这可能会导致监控基础设施的大规模扩张。此外还有安全风险。

斯特雷特说:“如果你收集(数据),它就更有可能被泄露。”

人们还担心人工智能是否会取代人类的工作。

牛津互联网研究所人工智能教授卡尔弗雷表示,人工智能末日的可能性不大,仍然需要“人类参与”。

但工资和中等收入就业可能会面临下行压力,尤其是随着先进机器人技术的发展。

“我并没有看到人们像通常描述的那样,将大量精力放在使用人工智能来开发新产品和新行业上。所有应用都归结为某种形式的自动化,”弗雷告诉 Context。

AGI 应如何受到监管?

弗雷表示,随着人工智能的发展,政府必须确保市场竞争,因为新公司的进入门槛很高。

他补充说,还需要对经济回报采取不同的方法。目前,专注于自动化和削减劳动力成本,而不是创造就业机会,才符合企业的利益。

他说:“我担心的一点是,我们越强调人工智能的弊端和风险,就越有可能受到监管,这意味着我们会限制进入,巩固现有企业的市场地位。”

上个月,美国国土安全部宣布成立一个由 OpenAI、微软、谷歌和 Nvidia 首席执行官组成的委员会,为政府提供有关关键基础设施人工智能的建议。

“如果你的目标是将人工智能的风险降到最低,那么你肯定不希望开源。你希望的是少数几个你可以轻松控制的现有企业,但最终你最终会陷入技术垄断,”弗雷说道。

我们什么时候才能获得AGI?

AGI 没有精确的时间表。Nvidia 首席执行官黄仁勋预测,今天的模型可能在五年内发展到 AGI 的水平。

黄先生对 AGI 的定义是,一种能够将人类逻辑测验和考试成绩提高 8% 的程序。

OpenAI 表示, Q* (发音为 Q-Star)将成为人工智能领域的突破性进展,Q* 是去年 11 月报道的一个秘密项目。

微软研究人员表示,OpenAI 的生成式人工智能模型之一 GPT-4 具有“通用人工智能的闪光点”。然而,它“还远远不能做到人类能做到的一切”,也没有“内在动机和目标”——这是通用人工智能某些定义中的另一个关键方面。

但微软总裁布拉德史密斯否认了这一突破。

“在未来 12 个月内,你绝对不可能看到这种所谓的 AGI,即计算机比人类更强大。这将需要数年甚至数十年的时间,但我仍然认为现在是关注安全的时候了,”他在 11 月表示。

弗雷认为,由于硬件和可用训练数据量的限制,需要进行重大创新才能实现 AGI。

“我们能否按照目前的路径开发人工智能,确实存在疑问。我认为,我们不能仅仅通过增加计算能力和数据来扩展现有模型,然后实现 AGI。”

本站全部资讯来源于实验室原创、合作机构投稿及网友汇集投稿,仅代表个人观点,不作为任何依据,转载联系作者并注明出处:https://www.lvsky.net/410.html

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论