日本的人工智能监管方式及其对 2023 年 G7 轮值主席国的影响

人工智能 (AI) 正在给我们的业务和日常生活带来重大改变。虽然人工智能为社会问题带来了戏剧性的解决方案,但其不可预测性、不可解释性以及数据偏差的反映或放大引发了人们对隐私、安全、公平甚至民主的各种担忧。作为回应,世界各地的政府、国际组织和研究机构在 2010 年代末开始发布一系列以人为中心的人工智能原则。[1]

最初的广泛原则现在正在转变为更具体的法规。2021 年,欧盟委员会发布了《人工智能法案》草案,将人工智能分为四个级别,并规定了相应的义务,包括加强安全性、透明度和问责措施。在美国,《2022 年算法问责法案》于 2022 年 2 月在国会两院提出。2022 年 6 月,加拿大提出了《人工智能和数据法案》(AIDA),其中将强制要求对影响深远的人工智能系统进行风险管理和信息披露。

虽然监管人工智能对于防止基本价值观受到威胁在某种程度上是必要的,但人们担心合规负担和监管内容的模糊性可能会扼杀创新。此外,监管分散不仅会给企业而且给社会带来严重成本。对于包括七国集团 (G7) 领导人在内的政策制定者来说,如何应对人工智能风险,同时加速有益的创新和采用是最困难的挑战之一。

2023 年在日本举行的 G7 峰会上,数字部长们预计将讨论以人为本的人工智能方法,这可能涵盖监管或非监管政策工具。作为东道国,日本对人工智能监管的方法可能会对全球领导人之间的共识形成产生相当大的影响。本文分析了日本人工智能监管的主要趋势,并讨论了在 G7 峰会上可以提出哪些论点。

总而言之,日本制定和修订与人工智能相关的法规的目的是最大限度地发挥人工智能对社会的积极影响,而不是因为高估风险而抑制它。重点是基于风险、敏捷和多方利益相关者的流程,而不是一刀切的义务或禁令。日本的做法为了解人工智能监管的全球趋势提供了重要见解。

对于包括七国集团 (G7) 领导人在内的政策制定者来说,如何应对人工智能风险,同时加速有益的创新和采用是最困难的挑战之一。

日本的人工智能法规

 

基本原则

2019年,日本政府公布了《以人为本的人工智能社会原则》(简称“社会原则”),作为人工智能在社会中的实施原则。社会原则提出了人类尊严、多样性和包容性、可持续性三项基本理念。值得注意的是,社会原则的目标不是限制人工智能的使用以保护这些原则,而是通过人工智能来实现这些原则。这与经济合作与发展组织(OECD)人工智能原则的结构相呼应,其第一项原则是通过人工智能实现“包容性增长、可持续发展和福祉”。

为了实现这些目标,社会原则提出了围绕人工智能的七项原则:(1)以人为中心; (2) 教育/识字能力; (三)隐私保护; (四)保证安全; (五)公平竞争; (6) 公平、问责和透明; (七)创新。值得注意的是,这些原则不仅包括隐私和安全的保护要素,还包括指导人工智能积极使用的原则,例如教育、公平竞争和创新等。

日本的人工智能监管政策基于这些社会原则。其人工智能法规可分为两类。(本文中的“法规”不仅指硬法,也指非约束性指南和标准等软法。):

  1. 人工智能监管:管理与人工智能相关的风险的法规。

  2. 人工智能监管:促进人工智能实施的监管改革。

如下图所示,日本对人工智能监管采取风险导向和软法导向的方式,同时从人工智能监管的角度积极推进立法改革。

人工智能监管

约束性规定

日本没有普遍限制人工智能使用的法规。根据日本的AI治理Ver. 1.1日本经济产业省(METI)于 2021 年 7 月发布的报告——全面描述了日本的人工智能监管政策(人工智能治理报告)——这种“对人工智能系统具有法律约束力的横向要求目前被认为是不必要的。 ”这是因为监管机构在跟上人工智能创新的速度和复杂性方面面临困难。在这种情况下,规定性的、静态的和详细的监管可能会扼杀创新。因此,经济产业省报告的结论是,政府应尊重企业对人工智能治理的自愿努力,同时提供非约束性指导来支持或指导此类努力。该指南应以多利益相关方对话为基础,并及时持续更新。这种方法被称为“敏捷治理”,这是日本数字治理的基本方法。

从具体行业的法规来看,没有任何法规本身禁止人工智能的使用,而是要求企业采取适当的措施并披露有关风险的信息。例如,《数字平台透明度法案》对大型在线商城、应用商店和数字广告业务提出了要求,以确保与商业用户交易的透明度和公平性,包括披露决定其搜索排名的关键因素。 [2] 《金融工具和交易法》要求从事算法高速交易的企业向政府注册,并要求他们建立风险管理系统并维护交易记录。日本公平交易委员会从公平竞争的角度分析了通过算法进行卡特尔和不公平贸易的潜在风险,并得出结论认为现有的《反垄断法》可以涵盖大部分问题。

其他相关法律

有些法律没有直接立法规定人工智能系统,但仍然与人工智能的开发和使用相关。《个人信息保护法》(APPI)描述了收集、使用或传输个人信息的组织的主要强制性义务。APPI 的最新修正案于 2022 年生效,引入了假名个人数据的概念。[3] 由于处理假名信息的义务比处理个人信息的义务要轻,这一新概念有望鼓励企业使用更多数据进行人工智能开发。

如果人工智能给第三方造成损害,人工智能的开发者或者运营者如果存在疏忽,可能会承担民事侵权责任。然而,由于人工智能的输出是不可预测的,并且输出的原因也很难识别,因此很难在每种情况下确定谁是疏忽的。 [4] 《产品责任法》减轻了受害人在主张侵权责任时的举证责任,但该法仅涵盖有形物体造成的损害。因此,它可能适用于安装人工智能的硬件,但不适用于人工智能程序本身。

还有其他相关法规和法律旨在鼓励人工智能的发展和部署,将在“人工智能监管”部分介绍。

私人团体指南

如上所述,日本没有直接禁止使用人工智能的法规。但是,如上所述,如果因人工智能系统而发生事故,运营商可能会被追究侵权或产品责任。此外,还有一些案例——主要是在隐私领域——人工智能项目因社会批评而被放弃,而不一定是因为违反了现有法规。为了满足这些需求,政府提供了各种工具来帮助企业自愿实施适当的人工智能治理措施。

日本经济产业省的《人工智能原则实施治理指南》总结了实施社会原则的行动目标以及如何通过具体实例实现这些目标。它解释了根据敏捷治理框架与利益相关者合作建立和更新人工智能治理结构的流程。

已经发布了多份数据保护和利用指南。由经济产业省和总务省 (MIC) 联合制定的《数字化转型中的隐私公司治理指南》和《相机图像利用指南》提供了如何处理隐私数据的指南,不仅要遵守 APPI,还要根据与利益相关者的沟通采取适当措施。

为了促进人工智能开发和数据传输的公平合同,经济产业省发布了《人工智能和数据利用合同指南》。这些指南解释了签订数据传输或人工智能开发合同时的关键法律问题,并附有实际的示范条款。

企业自愿行动

随着各国政府发布有关人工智能和数据治理的指南,一些私营公司开始采取积极主动的方式进行人工智能治理。富士通发布了实践指南,展示了进行人工智能道德影响评估的程序,并发布了其在代表性案例中的应用示例。索尼制定了索尼集团人工智能道德准则,并将其添加到其质量管理体系中。 NEC 遵循NEC 集团人工智能和人权原则,由数字信任业务战略部门实施。

研究机构的工具

日本研究机构也提供各种工具来促进人工智能治理。由经济产业省管理的日本产业技术综合研究所 (AIST) 提供了《机器学习质量管理指南》,为基于机器学习的产品或服务建立了质量基准标准。它还提供了通过开发过程管理和系统评估实现质量的程序指导。

再比如,东京大学未来战略研究所开发了“风险链模型”,构建了人工智能的风险因素,并与民间企业合作开展案例研究。

人工智能监管

虽然上述对人工智能方面的监管经常被讨论,但人工智能方面的监管对于最大限度地发挥人工智能对社会的积极影响同样重要。日本立法者基于对所涉及风险的适当考虑,通过监管改革来促进人工智能在各种情况下的使用。

各行业监管改革

2020年,修订后的《道路交通法》和《道路运输车辆法》生效,允许在公共道路上进行3级自动驾驶(即有条件自动化)。 2021年,本田成为第一家提供合法批准的3级汽车的制造商。允许4级自动驾驶(即高度自动化)的新修正案将于2023年4月1日生效。

日本立法者在适当考虑相关风险的基础上,通过监管改革推动人工智能在多种场景下的使用。

在金融领域,《分期付款销售法》于 2020 年进行了修订,允许“经过认证的综合信贷购买中介”使用数据和人工智能来确定信贷额度。此前,信用卡公司在评估信贷额度时必须使用法定公式,其中要考虑年收入、家庭结构和其他因素。

为了工厂安全,根据高压气体安全法,于2017年建立了“超级认证操作员”制度。工厂运营商必须每年停止运营并进行一次安全检查,但获得利用人工智能和无人机的先进安全技术认证的运营商(超级认证运营商)可以在最长八年内不中断运营地进行安全检查。

《版权法》于 2017 年进行了修订,以促进数据在机器学习中的使用。修正案明确,通过互联网等方式下载、处理数据开发人工智能模型,不侵犯著作权。此外,2019 年《防止不正当竞争法》修正案保护访问受限的共享数据,这通常需要付费出售数据集。未经授权获取或滥用此类数据可能会受到禁令或损害索赔。这些独特的规定将帮助人工智能开发者利用更多的数据进行人工智能学习,同时保护数据持有者的适当利益。

全面的监管改革——数字林乔

许多传统法规要求人工进行目视检查或驻扎在营业场所。然而,人工智能系统应该能够在某种程度上取代人类的这种遵从性。为了解决这个问题,内阁于 2021 年 11 月成立了Digital Rincho(“Rincho”意为临时委员会)。Digital Rincho 旨在全面修订阻碍使用数字技术作为建立监管合规手段的法规。大约5000条有关模拟方法和非人工智能技术的法规将成为审查的目标,其中包括书面文件、现场检查、定期检查和专职驻守的要求。

概括

在人工智能监管方面,日本采取尊重企业自愿治理、提供非约束性指导方针予以支持的做法,同时对一些大型数字平台施加透明度义务。在人工智能监管方面,日本正在推行监管改革,允许人工智能产生积极的社会影响并实现监管目标。然而,哪种人工智能真正符合监管要求仍有待观察。应根据全球标准进行考虑,这就是人工智能监管需要国际合作的原因。

日本在人工智能治理国际合作中的领导作用

 

G7 国家之间的差异与共同点

正如引言中提到的,人工智能监管是七国集团领导人最具挑战性的话题之一。到目前为止,七国集团国家的做法似乎可以分为两类。

第一组试图采取“全面且基于硬法”的方法,该方法规定了义务,例如至少高风险人工智能的治理、透明度和安全性,一旦违反,将受到严厉制裁(类别1)。将适用欧盟人工智能法案的法国、德国和意大利可以归入这一组。提出AIDA 的加拿大也属于此类。第二类采取“针对特定行业和基于软法律”的方法,旨在通过非约束性指导(而不是通过全面的人工智能监管)促进适当的人工智能治理,同时要求某些行业实现透明度和数据保护(第 2 类)。日本和英国就属于这一类。美国目前也属于这一类,但如果国会通过《算法问责法案》或类似法案,美国可能会更接近第一类。

考虑到这一差距,G7 的讨论将集中在“采取不同做法的国家之间可以开展什么样的合作?”,随后,讨论将转向“什么样的合作是可能的?”

仔细检查各国的法规草案(第 1 类)和已发布的指南(第 2 类)会发现,除了是否具有法律约束力之外,它们之间有很多相似之处。

首先,在这两种情况下,通过人工智能治理实现的目标都与经合组织人工智能原则(以及其他相关原则,如 G20 人工智能原则)相一致,包括透明度和可解释性、隐私、公平、安全和问责制。还建议(或要求)在这两个类别中向利益相关者提供适当的信息,进行影响评估,并保存人工智能操作的记录,至少对于某些类别的高风险人工智能而言。

其次,不仅在第 2 类国家,在第 1 类国家,具体的监管要求也尚未详细描述,这意味着人工智能服务提供商在内部商讨良好行为方面有很大空间。他们可能要解决的问题包括:如何用通俗易懂的语言解释算法的准确逻辑?如何评估无法轻易量化的风险?有哪些技术方法可以确保公平、安全或隐私?一旦发生事故,补救机制和最终责任负担将如何设计?这些细节需要由每个人工智能系统提供商或用户设计和更新。

对于业务仅与第二类国家相关的人工智能服务提供商,实施此类人工智能治理尚未在法律上强制执行。但至少对于具有较大市场和社会影响力的人工智能运营商来说,考虑和实施适当的人工智能治理和风险缓解措施将是必不可少的,因为市场和社会不会接受他们的服务。

鉴于这种情况,不仅对于实践人工智能治理的人工智能服务提供商,而且对于评估人工智能治理适当性的监管机构以及市场参与者和个人来说,对良好的人工智能治理实践达成共识非常重要。此外,鉴于人工智能将对国内和全球产生影响,志同道合的国家最好能形成并采用这种共识。

可能的合作步骤

各国有充分理由考虑采取实际步骤进行国际合作。这样的事情已经在各个论坛上开始了。 2022年12月,欧盟-美国贸易和技术理事会(TTC)人工智能标准工作组发布了《可信人工智能和风险管理评估和测量工具联合路线图》,呼吁加强人工智能标准方面的国际合作。经合组织提供工具和知识库,包括人工智能系统分类框架。国际标准化组织 (ISO) 也在进行标准化工作,例如人工智能领域的标准化(ISO/IEC JTC 1/SC 42)。这些举措仍处于路线图阶段,在实际实施之前需要经过各种流程。以下是未来国际合作可能采取的步骤。

一个相对简单的步骤是各国分享人工智能事件和最佳实践。与所有其他领域的法规一样,人工智能法规需要基于具体的必要性和相称性来实施,而不是从抽象概念中推导出来。因此,分享人工智能在哪些领域造成了哪些风险的实际案例,以及哪些技术、组织和社会方法在克服这些风险方面是有效的,将成为政策制定者的重要决策工具。例如,全球人工智能伙伴关系 (GPAI) 是一个由多方利益相关者组成的倡议,设在经合组织,旨在弥合人工智能理论与实践之间的差距,该倡议正在分析使用气候变化数据和使用隐私增强技术的最佳实践。日本将在 2022-2023 年担任 GPAI 主席,为最佳实践的国际发展做出贡献。

如果可以推广此类最佳实践,下一步可能会采用国际标准。标准将为人工智能服务提供商提供关于良好人工智能治理实践的见解,澄清第一类国家的监管内容,并作为第二类(以及第一类)国家责任和社会评估的基础。例如,上述 TTC 同意推进以下方面的标准化:(1) 共享术语和分类法;(2) 可信赖的人工智能和风险管理工具;(3) 人工智能风险的监控和衡量。在 ISO 方面,日本通过召集多个工作组为 SC 42 做出了贡献,包括“人工智能支持的健康信息学”(联合工作组 3)和“用例和出版物”(工作组 4)。

一个更雄心勃勃的尝试是实现人工智能治理的跨境互操作性。换句话说,可以引入一种机制,使一个国家法规或合同要求的认证(例如安全认证、类型认证)或流程(例如人工智能影响评估、隐私影响评估)也可以在另一个国家使用。虽然目前讨论互操作性的细节还为时过早,因为各国的人工智能法规尚未通过,但推动上述案例共享和标准化将大有裨益,以期在未来实现互操作性。

迈向敏捷人工智能治理

共享最佳实践、建立共享标准和确保未来互操作性的国际合作可能是过去在各个领域重复出现的典型模式。然而,在人工智能治理领域应该特别关注。

首先,仅通过政府间合作无法实现充分的人工智能治理。鉴于人工智能系统的技术复杂性,以及人工智能对人类自主性和经济的影响(既有积极影响,也有消极影响),多方利益相关者的合作至关重要。利益相关者不仅包括技术、法律、经济和管理方面的专家,还包括作为人工智能治理最终受益者的个人和社区。

其次,考虑到人工智能技术的发展速度,人工智能治理方法需要敏捷并不断评估和更新。在更新时,不仅要考虑现有的法律和指导意见,还要根据实际需要调整监管体系本身的结构,比如应该在多大程度上制定法律,需要什么指导意见,以解决实际问题。问题。

日本政府将这种多利益相关方参与的灵活治理流程称为“敏捷治理”,并将其定位为数字化社会的基本政策。经济产业省在2020 年、2021 年和2022 年发布的三份报告中总结了这一总体概念。上一节介绍的日本《人工智能原则实施治理指南》和《数字化转型中隐私的公司治理指南》也是基于这一概念。此外,上述综合监管改革组织 Digital Rincho 也将敏捷治理原则作为其重要基础之一。

日本政府将这种多利益相关方参与的灵活治理流程称为“敏捷治理”,并将其定位为数字化社会的基本政策。

由于日本对人工智能治理有着清晰而一致的愿景、成功的人工智能监管改革,以及企业为创造良好治理实践和为标准制定做出贡献而采取的各种举措,日本在推动七国集团在良好人工智能治理方面的合作方面具有良好的前景。



本站全部资讯来源于实验室原创、合作机构投稿及网友汇集投稿,仅代表个人观点,不作为任何依据,转载联系作者并注明出处:https://www.lvsky.net/110.html

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论