大型科技公司的人工智能模型不符合欧盟新人工智能法案的标准

著名的人工智能模型未能满足欧盟法规,特别是在网络安全弹性和非歧视性输出方面。

1729180234693.jpg

最近对一些顶级人工智能模型的评估显示,它们在遵守欧盟法规方面存在重大差距,特别是在网络安全弹性和防止歧视性输出方面。瑞士初创公司 LatticeFlow 与欧盟官员合作开展的这项研究测试了 Meta、OpenAI 和阿里巴巴等主要科技公司的生成式人工智能模型。这些发现是衡量欧盟即将出台的《人工智能法案》合规情况的早期尝试的一部分,该法案将在未来两年内分阶段实施。未达到这些标准的公司可能面临高达 3500 万欧元或其全球年营业额 7% 的罚款。

LatticeFlow 的“大型语言模型 (LLM) 检查器”评估了多个类别的 AI 模型,并分配了 0 到 1 之间的分数。虽然许多模型获得了可观的分数,例如 Anthropic 的“Claude 3 Opus”,得分为 0.89,但其他模型也暴露出漏洞。例如,OpenAI 的“GPT-3.5 Turbo”在歧视性输出方面获得了 0.46 的低分,阿里巴巴的“Qwen1.5 72B Chat”得分甚至更低,为 0.37,这凸显了 AI 在性别和种族等领域反映人类偏见的长期问题。

在网络安全测试中,一些模型也表现不佳。Meta 的“Llama 2 13B Chat”在“提示劫持”类别中的得分为 0.42,这是一种使用恶意提示来提取敏感信息的网络攻击。Mistral 的“8x7B Instruct”模型表现同样不佳,得分为 0.38。这些结果表明,科技公司需要加强安全措施,以满足欧盟的严格标准。

尽管欧盟仍在敲定其《人工智能法案》的执行细节(预计于 2025 年出台),但 LatticeFlow 的测试为企业微调其模型提供了早期路线图。LatticeFlow 首席执行官 Petar Tsankov 对此表示乐观,他指出测试结果主要是积极的,并为企业提供指导,以改善其模型对即将出台的法规的合规性。

尽管无法验证外部工具,欧盟委员会仍对这一举措表示欢迎,称这是将《人工智能法案》转化为可执行技术要求的“第一步”。随着科技公司为新规则做准备,LLM Checker 有望在帮助他们确保合规方面发挥关键作用。

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

评论