最低限度的充分性和人工智能治理

1722918661(1).jpg

  新美国、普林斯顿大学、亚利桑那州立大学等机构的研究人员最近发表了一篇论文《人工智能的复杂性与全球治理》,将“复杂性思维”应用于人工智能政策。在“基于透明度、激励和监管制定多层次的人工智能问责制”一节中,我注意到有人呼吁“自愿采用”一些标准:

  “下一层将是‘软’监管,例如自愿标准和公众压力以及其他可能影响人工智能开发者激励的措施,例如避免声誉损害。”

  制定自愿标准似乎比实施法规更容易。但制定自愿标准面临着独特的挑战,与制定可以强加给开发者的标准不同。人工智能社区应该注意这一点。

  无论是自愿标准还是法规,决策机构大概都相信制定标准的价值大于整个社区排除替代方案的机会成本。决策者无法预知未来,因此他们对这种权衡的持久性的评估只是猜测。法规可以重新评估和更改,但在此之前,社区很可能会继续使用过时的规则。

  对于自愿标准,整个开发者群体(有时还有用户群体)都是决策过程的一部分。如果自愿标准的价值不再超过排除替代方案的成本,那么它不太可能获得持续支持。忽视自愿标准的成本往往比违反规定的惩罚要低得多。因此,自愿标准的设计不仅要满足当前社区的已知需求,还要考虑未来的未知需求。正如论文中所述:

  “不确定性并不是拒绝传统监管方法的理由,但它确实增加了挑战,部分原因是人类倾向于高估技术的短期影响,而低估其长期影响。” [强调]

  在许多需要或期望制定自愿标准的情况下,都会出现此问题。在 20 世纪后期广泛部署的操作系统和广域网领域,没有政府标准。两个重要基础设施(UNIX 操作系统和 Internet 协议套件)的设计者创建了系统规范,这些规范在各自的领域获得了近乎普遍的认可,并且仍在不断增长。POSIX 操作系统标准(源自 UNIX)和 Internet 共同占领了巨大的市场份额,被许多竞争设计的前倡导者采用。

  我在 2019 年发表于《通信》杂志的一篇题为《论沙漏模型》的论文中指出,Unix 和互联网的设计都遵循一条可以形式化为设计原则的规则:最小充分性。该原则规定,为了使一组规则在未知环境中和面对不断变化的假设时尽可能广泛适用和持久,它在逻辑上应该尽可能薄弱,但仍然足以实现其必要的目标。

  在那篇论文中,我证明了一个正式的结果:沙漏定理。该定理的一个含义是,从逻辑上讲,将共同规则加强到超出实现共同商定目标所需的最低限度,可能会损害自愿接受。它告诉我们,一个共同规则体系从逻辑上越强大,支持它的可能环境就越少。虽然法规可能希望改变世界,但自愿标准必须接受现状。

  沙漏定理的含义可以用图 1 中的沙漏可视化来说明。在每一帧中,社区采用的规则集由中间层表示,这些规则的含义由“上钟”表示,可以支持这些规则实施的环境由“下钟”表示。沙漏定理通俗地说就是,中间层的逻辑性越强(意味着它做出的保证越多),上钟就越大,下钟就越小。反之亦然。

  要应用最小充分性原则,需要确定一组必须包含在上部钟形内的必要目标。沙漏定理告诉我们,选择符合此充分性标准的逻辑上最弱的规则集将导致下部钟形尽可能大。直观地说,下部钟形较大的沙漏是可以在最多样化的环境中自愿采用的沙漏。

  《人工智能的复杂性和全球治理》一文中对人工智能治理的讨论使用了“弱”和“强”这两个术语,暗示了对强规则的偏好:

  “政策制定者应该集中精力加强问责制度的各个层面。他们应该避免通过削弱问责制度的措施。”

  最小充分性原则表明,采用逻辑上强于必要性的规则可能会对其自愿采用和持久性产生负面影响。这适用于人工智能法规,就像它适用于网络和操作系统 API 和协议的规范一样。

  在政策方面,最低限度充分性原则意味着,最好将自愿标准限制在满足政策目标所需的标准上,而不是将旨在实现规则制定者所期望的结果的规则也纳入其中。从事人工智能治理的人如果忽视这一原则,将自食其果。

  当然,如果政策目标没有明确定义,并且对于什么是必要的、什么是可取的,可能会存在真正的分歧,那么遵守最低限度充分性原则是困难的。然而,如果在没有此类指导方针的情况下制定规则,并且在制定共同规则时不加以约束,那么结果可能不会被广泛接受和/或可能不会持久。我的同事 Terry Moore 指出了这句相关的话:

  “现在,发现任何事物应遵循的原则的唯一方法,就是考虑

  在建成后该如何处理它。”

  —《查尔斯·桑德斯·皮尔斯文集》,第 7 卷,第 220 段

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论