新报告呼吁停止现行制度,提高透明度,并遵守国际人权标准。
国际特赦组织对丹麦福利机构 Udbetaling Danmark (UDK) 及其合作伙伴 Arbejdsmark Tillægspension (ATP) 使用人工智能工具检测社会福利欺诈行为表示严重担忧。
该组织警告称,这些人工智能系统可能会过度歧视弱势群体,包括残疾人、低收入者、移民、难民和边缘化种族群体。大赦国际的报告《编码的不公正:丹麦自动化福利国家的监视和歧视》对此进行了详细说明,该报告批评了加剧社会不平等而不是支持高危人群的风险。
报告谴责了所谓的大规模监控行为,强调大量收集敏感数据(如居住地、公民身份和家庭关系)侵犯了隐私。大赦国际认为,这种做法不仅损害了个人尊严,还助长了算法歧视,特别是通过“真正单身”和“模范海外”算法系统。这些工具可能会不公平地针对非典型家庭结构或与外国有联系的家庭,进一步边缘化本已脆弱的社区。心理影响是严重的,人们将持续调查的压力描述为“生活在枪口下”,加剧了残疾人士的精神痛苦。
这为什么重要?
报告指出了透明度和问责制问题,批评 UDK 和 ATP 拒绝全面披露其人工智能系统,并在没有充分理由的情况下驳斥了使用社会评分机制的说法。报告还将这些做法与可能违反国际、欧盟和丹麦对隐私和非歧视的承诺联系起来。大赦国际呼吁立即停止使用这些算法,禁止在风险评估中使用“外国关联”数据,并敦促欧盟委员会澄清被视为社会评分的人工智能做法,确保在技术进步的同时保障人权。
评论