欧盟人工智能的使用将受到世界上第一部全面的人工智能法《人工智能法案》的监管。了解它将如何保护您。
作为其数字战略的一部分,欧盟希望对人工智能(AI)进行监管,以确保为这一创新技术的开发和使用提供更好的条件。人工智能可以创造许多好处,例如更好的医疗保健;更安全、更清洁的运输;更高效的制造;以及更便宜和更可持续的能源。
2021 年 4 月,欧盟委员会提出了首个欧盟人工智能监管框架。该框架规定,将根据人工智能系统对用户的风险对其进行分析和分类,以用于不同的应用。不同的风险级别将意味着监管力度的加强或减弱。
议会对人工智能立法的要求
议会的首要任务是确保欧盟使用的人工智能系统安全、透明、可追溯、无歧视且环保。人工智能系统应由人而不是自动化来监督,以防止产生有害后果。
议会还希望为人工智能建立一个技术中立的统一定义,以应用于未来的人工智能系统。
人工智能法案:针对不同风险等级制定不同规则
新规则根据人工智能的风险程度规定了提供商和用户的义务。虽然许多人工智能系统带来的风险很小,但仍需要对其进行评估。
不可接受的风险
不可接受的风险人工智能系统被视为对人类构成威胁的系统,将被禁止。它们包括:
对人们或特定弱势群体进行认知行为操纵:例如鼓励儿童做出危险行为的声控玩具
社会评分:根据行为、社会经济地位或个人特征对人们进行分类
人员的生物特征识别和分类
实时和远程生物特征识别系统,例如面部识别
出于执法目的,可能允许一些例外情况。 “实时”远程生物识别系统将被允许用于有限数量的严重案件,而“后”远程生物识别系统(在明显延迟后进行识别)将被允许起诉严重犯罪,并且只有在法院批准后。
高风险
对安全或基本权利产生负面影响的人工智能系统将被视为高风险,并将分为两类:
1) 用于符合欧盟产品安全立法的产品中的人工智能系统。这包括玩具、航空、汽车、医疗设备和电梯。
2)属于特定领域的人工智能系统必须在欧盟数据库中注册:
关键基础设施的管理和运营
教育和职业培训
就业、工人管理和自营职业机会
获得和享受基本私人服务以及公共服务和福利
执法
移民、庇护和边境管制管理
协助法律解释和法律适用。
所有高风险人工智能系统在投放市场之前及其整个生命周期都将接受评估。人们有权向指定的国家当局提出有关人工智能系统的投诉。
透明度要求
像 ChatGPT 这样的生成式人工智能不会被归类为高风险,但必须遵守透明度要求和欧盟版权法:
披露内容是由人工智能生成的
设计模型以防止其生成非法内容
发布用于培训的受版权保护数据的摘要
可能带来系统性风险的高影响力通用人工智能模型,例如更先进的人工智能模型GPT-4,必须经过彻底的评估,任何严重事件都必须向欧盟委员会报告。
在人工智能的帮助下生成或修改的内容——图像、音频或视频文件(例如深度伪造)——需要明确标记为人工智能生成,以便用户在遇到此类内容时能够意识到。
支持创新
该法律旨在为初创企业和中小型企业提供在向公众发布之前开发和训练人工智能模型的机会。
因此,它要求国家有关部门为企业提供模拟接近真实世界的测试环境。
下一步
议会于 2024 年 3 月通过了《人工智能法案》。生效24个月后将全面适用,但部分部分将提前适用:
对存在不可接受风险的人工智能系统的禁令将在生效六个月后生效
行为准则将在生效九个月后适用
需要遵守透明度要求的通用人工智能系统规则将在生效 12 个月后适用
高风险系统将有更多时间来遵守要求,因为与它们有关的义务将在生效后 36 个月开始适用。
本站全部资讯来源于实验室原创、合作机构投稿及网友汇集投稿,仅代表个人观点,不作为任何依据,转载联系作者并注明出处:https://www.lvsky.net/108.html
评论