什么是人工智能?你能明确区分人工智能和非人工智能系统吗?

如何定义人工智能?如何明确区分人工智能和非人工智能机器系统?迄今为止,答案既难以捉摸,问题也很简单。世界上许多最聪明的人都试图提出一个大家都同意的明确定义,但似乎从未达成共识。没有明确的红线,只有一系列特征来描述我们所认为的人工智能以及“魔法”发生的地方。随着人工智能变得越来越复杂和多样化,一些技术,如光学字符识别 (OCR),曾经被广泛认为是人工智能,但现在已经不再是人工智能了——至少对公众来说是这样——即使它们采用了教科书上的人工智能方法。这表明人工智能技术正在快速发展,未来可能会出现更多的技术和应用。

经合组织国家于 2018 年 6 月份开始研究这一问题,讨论范围不断扩大,讨论内容也越来越详细。虽然他们还没有找到定义的最佳方式,但他们已经就定义达成了共识。这是第一次。从一开始,我们就决定不定义“人工智能”,而是定义“人工智能系统”,这是一个更具体、更可操作的概念,尤其是在政策制定方面。为了清晰起见,以下是关于人工智能的构成以及经合组织对人工智能系统的定义的一些解释。

各国于2023年对这一定义进行了修订。以下是“人工智能系统”定义的具体修订,供参考(新增内容以 粗体 显示,删减内容以 删除线显示):

人工智能系统是一种基于机器的系统,它 可以根据 一组给定的人类定义的 显式或隐式 目标, 从其收到的输入中推断 如何生成输出,例如 做出 预测、 内容、建议或决策 ,从而 影响物理现实 或虚拟环境。 不同的 人工智能系统 在部署后 ,其自主性和适应性 水平 各不相同   。

修订后的定义:

人工智能系统是一种基于机器的系统,它为了明确或隐含的目标,从收到的输入中推断如何生成输出,例如预测、内容、建议或可以影响物理或虚拟环境的决策。不同的人工智能系统在部署后的自主性和适应性水平各不相同。

“人工智能”一词和人工智能系统定义中通常涵盖的主题包括机器学习和基于知识的方法等技术类别;计算机视觉、自然语言处理、语音识别、智能决策支持系统和智能机器人系统等应用领域;以及这些工具在不同领域的具体应用。

经合组织刚刚发布了 一份关于其更新的人工智能系统定义的解释备忘录。在这篇博文中,我们解释了其中的要点。

输入,包括数据

输入在开发期间和部署后都会使用。输入可以采用人类在开发期间输入系统的知识、规则和代码或数据的形式。人类和机器都可以提供输入。在开发过程中,输入可用于构建 AI 系统,例如,利用机器学习从训练数据和/或人类输入中生成模型。输入还被运行中的系统使用,例如,推断如何生成输出。输入可以包括与要执行的任务相关的数据,也可以采用例如用户提示或搜索查询的形式。


人工智能系统的简化说明性概览 

注意:此图仅显示了开发和部署阶段之间的一种可能关系。在许多情况下,系统的设计和训练可能会在下游用途中继续进行。例如,人工智能系统的部署者可能会在运行过程中微调或持续训练模型,这可能会对系统的性能和行为产生重大影响。 

人工智能系统的类型及其构建方式

经合组织国家同意使用的定义描述了被视为人工智能的机器的特征,包括它们的作用/如何使用,以及如何制造它们。

尽管对“模型”一词存在不同的解释,但在本文件中,人工智能模型是人工智能系统的核心组件,用于根据输入进行推理以产生输出。在部署之前,人工智能系统通常是通过组合一个或多个基于机器和/或人类输入/数据手动或自动开发的“模型”(例如,使用推理和决策算法)来构建的。

关于经合组织更新的人工智能系统定义的解释备忘录

  • 机器学习是一套技术,可帮助机器提高性能,通常通过接触训练数据自动生成模型,这有助于识别模式和规律,而不是通过人类的明确指令。使用机器学习技术提高系统性能的过程称为“训练”。

  • 符号或基于知识的 AI 系统通常使用基于逻辑和/或概率的表示,这些表示可能是人为生成的,也可能是机器生成的。这些表示依赖于变量及其相互关系的明确描述。例如,推理制造过程的系统可能有代表工厂、商品、工人、车辆、机器等的变量。

  • 此外,值得注意的是,符号人工智能可能使用机器学习。例如,归纳逻辑编程从数据中学习符号逻辑表示,决策树学习以逻辑条件树的形式学习符号规则。

人们倾向于认为使用机器学习构建的人工智能系统具有一定的智能,因为在训练过程中,它们可以在没有精确指令的情况下找出模型参数之间的关系。例如,语言模型被赋予大量语言资源,并被赋予“预测下一个单词”的目标,从而产生一个似乎可以智能地响应提示的训练模型。所以,这就是人工智能研究人员认为的智能发生的地方:在构建阶段。最终用户认为的“智能”发生在运行时,即构建之后。

但是,当手动构建符号 AI 系统时,人类会提供知识和表达知识的词汇。在这里,我们认为知识工程师是部分智能的来源——即 AI 系统不会从自己的经验中发现它所使用的知识。另一方面,AI 系统可以执行非常复杂的推理,这有助于系统的整体智能。例如,深蓝和 AlphaZero 一样,由人类工程师制定游戏规则;这些规则允许它采取合法的行动,但不允许采取好的行动。好的行动主要来自它对游戏中未来轨迹进行推理的强大能力。

自主性和适应性

关于经合组织更新的人工智能系统定义的解释备忘录

人工智能系统的目标设定和开发始终可以追溯到发起人工智能系统开发过程的人类,即使目标是隐含的。但是,一些人工智能系统可以“适应”或开发隐含的子目标,有时还会为其他系统设定目标。人类对人工智能系统的自主权、自主性和监督是经合组织人工智能原则中的关键价值观,具体取决于人工智能的使用环境。

  • 人工智能系统自主性是指在人类授予自主权和流程自动化之后,系统无需人类参与即可学习或行动的程度。人类监督可以发生在人工智能系统生命周期的任何阶段,例如在人工智能系统设计、数据收集和处理、开发、验证、确认、部署或操作和监控期间。一些人工智能系统可以在没有人类具体指令的情况下生成输出。

  • 适应性包含在修订后的人工智能系统定义中,通常与基于机器学习的人工智能系统有关,这些系统可以在初始开发后继续发展其模型。例子包括适应个人声音的语音识别系统或个性化音乐推荐系统。人工智能系统可以进行一次、定期或持续的训练。通过这样的训练,一些人工智能系统可能会发展出执行开发人员最初未设想的新形式推理的能力。部署后适应的概念对于人工智能的监管非常重要,因为这意味着部署时对系统性能和安全性的保证可能会因后续的适应而失效。因此,必须在所有可能的未来数据轨迹下为系统的所有未来版本获得保证,这是一个比保证静态系统困难得多的问题。通过将自动化测试作为适应过程的一部分,可以在一定程度上缓解这一困难,例如,最初被认证为公平的系统不会出现偏见。

人工智能系统目标

关于经合组织更新的人工智能系统定义的解释备忘录

AI 系统目标可以是显式的,也可以是隐式的。例如,它们可以属于以下类别,并且在某些系统中可能会重叠:

  • 明确且人为定义。在这些情况下,开发人员将目标直接编码到系统中,例如通过目标函数。具有明确目标的系统的示例包括简单分类器、游戏系统、强化学习系统、组合问题解决系统、规划算法和动态规划算法。

  • 规则和政策中隐含的内容。规则通常由人类指定,根据当前情况规定 AI 系统要采取的行动。例如,驾驶系统可能有一条规则,“如果交通信号灯是红色,就停车”。然而,这些系统的根本目标,例如遵守法律或避免事故,在系统中并不明确,即使人类设计者清楚并有意为之。

  • 隐含在训练数据中。在这种情况下,最终目标不是明确编程的,而是通过训练数据和学习模拟这些数据的系统架构来整合的,例如,训练大型语言模型来模仿人类的语言行为。在这种情况下,人类工程师可能不知道数据中隐含的目标是什么。

  • 事先不完全了解。有些系统可能会通过交互更多地了解人类的目标,从而学会帮助人类。一些例子包括推荐系统,它使用“从人类反馈中进行强化学习”来逐步缩小个人用户偏好的模型。

“推断如何”生成输出

“推理”的概念通常是指系统从其输入生成输出的步骤,通常是在部署之后。在构建阶段执行时,推理通常用于评估模型的某个版本,尤其是在机器学习环境中。在本解释备忘录的背景下,“推断如何生成输出”应理解为也指人工智能系统的构建阶段,在此阶段,模型是从输入/数据中得出的。

应用更新后的定义

经合组织对人工智能系统的定义有意不涉及人工智能系统的责任和义务问题及其潜在的有害影响,这些问题最终取决于人类,并且不会以任何方式预先确定或预先阻止各个司法管辖区在这方面做出的监管选择。

更新后的 AI 定义具有包容性,涵盖了从简单到复杂的各种系统。系统“简单”并不意味着它没有风险,也并不意味着无需保证其安全性,但确实意味着提供此类保证可能比复杂系统更简单!AI 代表了一套适用于许多不同情况的技术和技巧。特定的技术集合(例如机器学习)可能会引起政策制定者的特殊考虑,例如偏见、透明度和可解释性,并且某些使用环境(例如有关公共利益的决策)可能比其他使用环境引起更严重的担忧。因此,在实践中应用时,可能需要额外的标准来缩小或以其他方式调整在特定环境中使用时的定义,并且即使在相同的使用环境中,某些类型的 AI 系统也可能适用额外的规定。



本站全部资讯来源于实验室原创、合作机构投稿及网友汇集投稿,仅代表个人观点,不作为任何依据,转载联系作者并注明出处:https://www.lvsky.net/119.html

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论