欧盟在人工智能监管领域迎来了关键时刻,2025年7月11日开始执行《人工智能法案》的核心条款,这标志着全球首个全面AI技术监管框架的落地实施。
《人工智能法案》是全球首个针对人工智能的法律框架,旨在应对AI带来的风险,并使欧洲在全球范围内发挥引领作用。 该法案为AI开发者和应用者针对特定用途设定了清晰的风险分级规则。该法案也是更广泛政策措施包的一部分,旨在支持可信赖AI的发展,其中还包括人工智能创新计划、AI工厂的启动以及人工智能协调计划。这些措施共同保障了安全、基本权利和以人为本的AI,同时推动AI在欧盟范围内的普及、投资与创新。
该法案的实施采取分阶段推进,自2024年8月1日生效。首批实质性义务于2025年初开始适用,而此次的关键节点——针对通用型人工智能(GPAI)模型的广泛义务和新的治理结构——将于2025年8月2日生效。对于AI开发者、提供者和应用者,尤其是跨境运营的企业而言,这一节点意味着从准备阶段向全面执行的重大转变。
本阶段将启动欧洲人工智能办公室和欧洲人工智能委员会(EAIB),负责监督和协调成员国的执法工作。各国主管部门也必须在此日期前指定完毕。 GPAI模型提供商——尤其是提供大型语言模型(LLM)的企业——将面临新的横向义务,包括透明度、文档记录和版权合规要求。对于被认定为具有系统性风险的GPAI模型,还需满足风险缓解、事件报告和网络安全等额外要求。
尽管业界存在反对声音,欧盟委员会仍坚持既定的实施时间表。2025年7月3日,路透社报道称,多家公司呼吁暂停相关条款的执行,并获得部分政界人士的支持。“为应对当前不确定性,我们敦促欧盟委员会在主要义务生效前,提出为期两年的‘暂停期’。”45家欧洲领先企业在致欧盟委员会的公开信中表示。然而,欧盟委员会拒绝了这一请求,并表示将按原计划推进实施。
虽然通用型人工智能模型的相关规则将于2025年8月2日生效,但执法权力将在一年后(2026年8月2日)正式启动。届时,违规者将面临最高1500万欧元或全球营业额3%的行政罚款(对于被禁止的行为,罚款上限提升至3500万欧元或7%)。欧盟的监管模式旨在在创新与基本权利保护之间取得平衡,建立起有望影响全球AI治理的框架。