欧盟理事会近日发布了对《人工智能法案》的修订提案,其中一项引人注目的新增内容是对AI“裸体化”工具实施明确禁令,并同步强化了处理特定个人数据的标准。这一举措是欧盟在简化人工智能监管框架、构建全面数字立法体系进程中的关键一步。
根据欧盟理事会发布的新闻稿,新规明确“禁止涉及生成未经同意的性内容和亲密内容或儿童性虐待材料的AI实践。”这一条款直指近年来引发广泛争议的AI“脱衣”应用——即利用人工智能技术将普通照片合成、生成为裸体或色情图像的恶意工具。该项禁令与此前欧洲议会批准的相关措施形成呼应,预计将在后续的跨机构谈判中被正式纳入最终法案文本。
在此之前,欧洲委员会已提议推迟高风险AI系统规则的生效时间,并为更多中小企业提供法规豁免,以平衡创新激励与风险防控。而欧盟理事会此次的提案则在放宽部分要求的同时,收紧了涉及个人权利的核心红线。提案还恢复了要求高风险AI系统提供商在欧盟统一数据库中完成注册的规定,以确保系统开发、部署全流程的可追溯性与合规性。
在数据使用层面,欧盟理事会的提案重新确立了处理特殊类别个人数据的严格必要性标准。这意味着,在开发用于偏见检测和纠正的AI系统时,开发方必须证明其对敏感数据的采集和使用是绝对必要的,且无法通过匿名或聚合数据实现目标。这一修订旨在强化对种族、政治观点、生物特征等敏感信息的保护,防止技术开发过程中对个人隐私的过度侵犯。
此次提案的加速推进,与近期发生的多起AI滥用事件密切相关。自2025年12月底起,社交平台X(原推特)旗下的Grok聊天机器人被曝出能够生成并传播大量未经同意的亲密图像,引发全球范围的舆论关注和用户恐慌。欧洲委员会已于今年1月对相关平台启动正式调查,这一事件凸显了监管AI生成内容的紧迫性,也为欧盟强化相关立法提供了现实依据。
接下来,欧盟理事会将与欧洲议会就这些修正案进行进一步协商,以最终敲定《人工智能法案》的全部内容。作为全球首部全面规范人工智能的法律框架,该法案的落地进程始终受到国际社会高度关注。此次对“裸体化”工具的禁令以及数据保护标准的强化,标志着欧盟在技术发展与个人权利之间寻求平衡的立法取向正在进一步明晰。









