1、美国或将禁止各州在未来十年执行AI(人工智能)监管
当地时间5月22日,据央视新闻报道,共和党议员占多数的美国国会众议院以微弱优势通过了特朗普政府提出的一项大规模税收与支出法案。接下来,该法案将提交到参议院进行审议。该法案计划在未来10年内减税4万亿美元,并削减至少1.5万亿美元支出。
这份被特朗普称为“美丽大法案”(One Big Beautiful Bill Act)的《HR1》法案涵盖了共和党的一系列立法重点议题,但在其中,一项关于AI监管的内容引起了科技界的特别关注。该条款指出,将禁止美国各州在从法案颁布之日算起的未来十年内“执行任何监管AI模型、AI系统或自动决策系统的法律或法规”。
这项内容在众议院展开正式审议的前不久才被加入法案,一经宣布就引起了争议,引发人们对美国未来AI发展和使用的担忧。(来源:澎湃新闻)
2、欧盟委员会考虑暂停《人工智能法》生效
欧盟委员会正考虑推迟《欧盟人工智能法》的生效实施,原因是围绕AI模型行为准则的争议、行业日益强烈的反对声浪,以及技术标准制定工作的延误。该动议尚待确认,可能通过暂停法律生效时钟的方式推动针对性修订,以简化部分条款。
《人工智能法》采用分阶段生效机制,但主要条款及执法规则与处罚制度将于2026年8月2日正式实施。
这部人工智能法律的实施阶段在初期就面临挑战:欧盟委员会需要同时筹建新的人工智能办公室、发布行政指导文件,并推动通用AI模型行为准则的制定。其中行为准则已成为最具争议的焦点,涉及生成式AI开发中的版权保护与社会风险应对等敏感议题,最终导致法定期限被错过。
该准则也成为了欧盟委员会与美国政府之间的摩擦点,美方已正式要求欧盟暂停《人工智能法》实施。关于暂停欧盟AI规则手册生效的提议,似乎在委员会内部引发了激烈辩论。当前欧盟正与特朗普政府谈判,试图避免50%关税的征收。
此外,落实AI法律要求所需技术标准的制定工作出现严重延误。这些标准预计将在法律生效截止日期前不久才能最终定稿。
据MLex了解,欧盟委员会数字政策部门正在内部讨论是否提议在2026年8月全面实施期限前推迟法案生效。关于通用AI模型的规则原定于今年8月正式生效。法律还禁止某些被视为具有不可接受风险的AI应用,这些禁令已于2025年2月2日生效。
但委员会与各成员国监管机构在2026年8月前暂不具备执法权。MLex获悉,是否正式提出延期动议及其具体形式尚待确认,该决定尚未提交至委员会政治决策层面。(来源:AIGverse)
评论:近期,全球人工智能(AI)监管领域呈现出值得高度关注的动态。美国众议院通过一项法案,其中包含未来十年内禁止各州执行AI监管的条款;欧盟委员会亦在考虑推迟《欧盟人工智能法》的全面生效。结合中国近期在人工智能立法方面的审慎调整,这些看似独立的事件背后,实则揭示了全球主要经济体在AI治理路径选择上的共同深层原因。
各国政府已深刻认识到,AI不仅是一项颠覆性技术,更是驱动未来经济增长、提升产业效率乃至影响全球治理格局的关键力量。在这一认知下,任何可能削弱本国AI发展势头的政策,都会被极其审慎地对待。当前,各国都在试图寻找一个微妙的平衡点,既要鼓励AI技术创新和产业发展,又要防范其潜在风险。然而,当天平向“国家竞争力”倾斜时,监管的步伐自然会更加谨慎和渐进,倾向于为创新预留更大的空间和更长的观察期。
更何况,实践中AI技术的高度复杂性与快速迭代性,构成了立法层面面临的根本挑战。当前AI技术正以指数级速度演进,核心概念的法律定义困境首当其冲,如何为“人工智能系统”“通用AI模型”等术语划定既精准又能适配技术发展的边界,成为立法难题,定义过窄易留监管漏洞,过宽则可能误伤创新。与此同时,技术黑箱效应与不可预测性加剧了治理难度,AI模型的决策逻辑常呈黑箱状态,其涌现能力甚至会超出设计者预期,导致事前风险评估、事中行为监控与事后责任追溯难以落实。这一矛盾在欧盟《人工智能法》的实践中尤为凸显,通用AI模型行为准则在版权归属、社会风险评估等议题上的制定僵局,以及技术标准落地的严重滞后,均印证了将法律原则转化为可操作规范的现实困境。
当前各国AI监管上的“战略性暂停”,并非简单地放弃治理,而是基于现实所采取的一种更为务实和动态的策略调整。这预示着未来AI治理将更倾向于采用敏捷治理、多方共治、技术标准与伦理规范相结合的柔性路径,而非一蹴而就的硬性立法。
3、德国法院首判:Meta可基于“合法利益”使用个人数据训练AI
2025年5月23日,德国科隆高等地区法院(OLG Köln)作出关于“个人数据用于AI模型训练的合法性基础”的判决:Meta可以依据《通用数据保护条例》(GDPR)第6条第1款f项中的“合法利益”(legitimate interest),使用德国用户在Facebook和Instagram上公开发布的内容,作为人工智能(AI)模型训练的数据来源。
Meta此前宣布,自2025年5月27日起,将使用Facebook和Instagram平台上用户发布的公开内容,用于训练其AI系统。关于该处理的合法性基础,Meta引用的是《通用数据保护条例》(GDPR)第6条第1款f项,主张其拥有“合法利益”,并为用户提供了主动反对(Opt-Out)的机制。此举引发了北威州消费者保护中心(Verbraucherzentrale NRW)的强烈质疑。
为了阻止Meta在法律未明朗前即先行实施政策,该消费者组织于5月13日向科隆高等法院申请临时禁令,要求暂停该计划的实施。法院驳回了这一临时禁令申请。
科隆高等地区法院于2025年5月23日裁定:Meta可将公开的Facebook和Instagram资料用于AI训练,无需用户明确同意。关于处理数据的合法性基础,法院认为Meta依第6条第1款f项主张的“合法利益”成立。法院认为,AI的发展和优化是正当的商业目的;AI训练确实“无可争议地”需要大规模数据,目前不存在侵害更小的替代方案,且Meta已通过通知和设置反对机制,满足了GDPR的信息透明义务。关于是否涉及敏感数据或《数字市场法案》的适用问题,法院亦未予支持消费者保护中心的观点。申请因此被驳回。(来源:数据合规 in DE)
评论:德国法院的本次判决对当前的AI技术发展具有重大意义,该判决肯定了AI技术发展和优化本身可构成GDPR第6条1(f)款下的“合法利益”。这为AI企业利用大规模数据进行模型训练提供了一条在“用户同意”之外的潜在合法路径,一定程度上回应了AI行业对数据可得性的迫切需求。法院认可“AI训练无可争议地需要大规模数据”且“目前不存在侵害更小的替代方案”,显示出对AI技术现实的理解。同时,判决强调了透明度义务和用户选择权(Opt-Out)的重要性。Meta通过通知和设置反对机制,被认为是满足GDPR信息透明要求的关键。
不过,该判决这仅是临时禁令的驳回裁定,并非对案件实体合法性的终局判决。后续的全面审理可能会有不同考量。而且是否适用“合法利益”始终需要进行严格的“平衡测试”,即企业利益不得凌驾于数据主体的基本权利和自由之上。此次法院初步认可了平衡,但具体到不同场景、数据类型(尤其是敏感数据边缘),平衡结果可能不同。对于用户公开发布内容,其对内容后续被用于AI训练的预期如何,仍是值得深入探讨的问题,我们将对此保持持续关注。
4、AI独角兽崩塌,全是印度程序员冒充
曾被寄予厚望的AI初创公司Builder.ai,如今却轰然倒塌。据媒体报道,这家公司已正式启动破产程序,还欠下亚马逊8500万美元、微软3000万美元的债务。
Builder.ai曾是AI领域的“准独角兽”,在2023年的D轮融资中获得2.5亿美元资金,估值接近10亿美元。公司声称其平台通过AI技术实现应用程序的快速无代码构建,并宣称成为不少全球知名品牌的合作伙伴。
然而,这一切不过是精心包装的谎言,多位曾在该公司工作或与之合作过的开发者揭示:Builder.ai的所谓“AI驱动开发”,实际上大量依赖人工操作完成。有多位前员工爆料称,该公司大规模雇佣了数以万计的低成本开发者,以人力方式完成原本声称由AI实现的开发流程。(来源:大象新闻)
评论:此案是典型的“AI清洗”案例,即用AI标签包装传统业务模式以获取更高估值和市场关注。这种行为不仅扭曲市场认知,对真正投入AI研发的企业构成不正当竞争,也可能引发监管机构对行业进行更严格的审视。近期,中央网信办启动的“清朗・整治AI技术滥用”专项行动,将“AI功能虚假宣传”列为重点整治对象,这充分可以说明,目前AI领域已经成为虚假宣传的重灾区。但市场是最诚实的,企业通过技术伪装规避监管的行为,本质上是对技术伦理责任的逃避,最终必然将付出惨重代价。





