欧盟委员会认为设备中的人工智能网络安全风险较高

  欧盟委员会的《人工智能法案》将把联网设备中基于人工智能的网络安全和紧急服务归类为高风险,需要进行大量的测试和安全措施,这将对医疗设备和航空等各个领域产生重大影响。人员、安全、欧盟、网络安全、高风险组件

  人员、安全、欧盟、网络安全、高风险组件

  根据Euractiv看到的一份欧盟委员会文件,联网设备中基于人工智能的网络安全和应急服务组件预计将根据《人工智能法案》被归类为高风险。该文件解释了2014 年无线电设备指令 (RED)与《人工智能法案》之间的关系,标志着新法规将如何处理基于人工智能的安全组件的第一个已知实例。RED 适用于无线设备,包括使用 Wi-Fi 和蓝牙的设备,而不仅仅是传统无线电。

  根据《人工智能法案》,高风险人工智能系统将接受广泛的测试、风险管理、安全措施和记录。该法案列出了人工智能部署自动被视为高风险的用例,例如关键基础设施和执法领域。它还为其他高风险产品设定了分类标准,要求根据特定行业法规进行第三方合规性评估。人工智能网络安全和应急服务组件符合 RED 的这些标准,因此被归类为高风险。

  即使在 RED 允许自我评估符合协调标准的情况下,这些基于人工智能的组件仍被视为高风险。《人工智能法案》引用了许多行业法规,这些法规可能会将人工智能产品归类为高风险产品,范围从电子产品到医疗设备、航空、重型机械和个人水上摩托艇。初步解释表明,自我评估标准不足以消除这些行业人工智能产品的高风险分类。

  《人工智能法案》对高风险人工智能系统提出了严格要求,而不属于这一类别的人工智能系统仅需承担少量的透明度义务。委员会的文件只是一份初步解释,长达 500 多页的《人工智能法案》的全面实施还有待观察。尽管最初估计有 5-15% 的人工智能系统将被归类为高风险,但 2022 年对欧盟初创企业的调查显示,其中 33-50% 的初创企业认为其产品具有高风险。需要进一步解释工作才能了解《人工智能法案》将如何影响各个行业。

  为什么这有关系?

  上述举措凸显了欧盟委员会对互联网连接设备中基于人工智能的网络安全和应急服务的严格监管。通过将这些组件归类为高风险,《人工智能法案》要求进行严格的测试、安全措施和记录,确保严格的安全标准。此举凸显了欧盟对保护关键基础设施和敏感数据的承诺,并表明对各个行业具有重大的监管影响,可能会影响人工智能技术的全球标准和实践。


版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论