欧盟人工智能法案 (EU AI Act)
返回全球政策
已生效欧盟法律法规

欧盟人工智能法案 (EU AI Act)

全球首部综合性AI监管立法

政策概述

EU AI Act 是全球首部全面的人工智能监管法规,建立了基于风险的AI系统分类框架,对高风险AI系统提出严格要求,旨在确保AI技术的安全性和可信赖性。

政策背景

随着人工智能技术的快速发展,欧盟认识到需要建立统一的监管框架来应对AI带来的挑战。2021年4月,欧盟委员会首次提出AI法案草案。经过近三年的立法程序,EU AI Act于2024年3月正式通过,成为全球首部综合性AI监管法律。该法案采用基于风险的监管方法,将AI系统分为不可接受风险、高风险、有限风险和最小风险四个等级,并针对不同风险等级设定相应的监管要求。

核心要点

1

禁止的AI实践

法案明确禁止某些AI应用,包括:操纵人类行为的潜意识技术、利用弱势群体的系统、社会信用评分系统、实时远程生物识别系统(执法例外除外)。

2

高风险AI系统

涵盖关键基础设施、教育、就业、基本服务、执法、移民、司法等领域的AI系统。这些系统必须满足严格的数据治理、透明度、人工监督和准确性要求。

3

通用AI模型

针对GPT等通用AI模型,要求提供技术文档、遵守版权法、披露训练数据摘要。具有系统性风险的模型需进行对抗性测试和安全评估。

4

透明度义务

AI系统与人类交互时必须告知用户,深度伪造内容必须标注,情感识别和生物分类系统需通知被处理者。

发展时间线

2021年4月
欧盟委员会发布AI法案草案
2022年12月
欧洲理事会通过其立场
2023年6月
欧洲议会通过修正案
2023年12月
三方达成临时协议
2024年3月
欧洲议会正式通过
2024年5月
欧洲理事会最终批准
2024年8月
法案正式生效
2025年2月
禁止的AI实践规定适用
2025年8月
通用AI模型规定适用
2026年8月
全面适用

专家解读

Dr. Hans Mueller
欧盟AI办公室高级顾问

EU AI Act的通过标志着全球AI监管进入新时代。该法案的基于风险方法为其他国家提供了重要参考。企业需要立即开始合规准备,特别是高风险AI系统的提供商。我们预计将有大量企业需要重新评估其AI产品和服务。

基本信息

发布日期2024年3月
生效日期2026年8月
阅读量12,580
下载量3,420

操作

标签

高风险AI合规要求处罚机制透明度人权保护