1、OpenAI CEO奥特曼遇袭,家中被投燃烧瓶及枪击
当地时间2026年4月10日凌晨,OpenAI首席执行官山姆·奥特曼位于旧金山的住宅遭人投掷燃烧瓶,导致外门起火,所幸未造成人员受伤。警方随后在OpenAI总部附近拘捕了一名20岁的男性嫌疑人,该嫌疑人当时正威胁要烧毁大楼,并在其身上发现了针对奥特曼的“反AI”宣言及多种纵火工具。
事件发生后,奥特曼发布博文回应,罕见公开了其家人照片,呼吁外界缓和针对AI行业的激烈言论与暴力手段。他坦言自己此前低估了舆论导向的危害,并深入反思了个人职业生涯中的错误与行业内关于AGI(通用人工智能)控制权的执念,主张应通过技术民主化来应对社会焦虑。据悉,此后该住宅再次遭遇涉及枪击的袭击事件,旧金山警方已介入调查并逮捕了更多涉案人员,目前奥特曼及其公司的安保力度已全面升级。

短短两天后(4月12日)的凌晨,山姆·奥尔特曼的同一处住宅再遭枪击。(来源:21世纪经济报道、APPSO、每日经济新闻)
评论:这起针对头部AI企业核心人物的暴力事件,在法律上属于恶劣的刑事犯罪,必须被严厉谴责及打击。但需要正视的是,这起事件绝非偶发,而是普通人与AI技术之间的当然冲突。步入2026年以来,由于AI技术的广泛应用,我们已经目睹了多个行业爆发大规模裁员潮,2026年1月,亚马逊宣布再裁减约1.6万个职位,2026年3月,Meta被报道将裁员1.5万人,2026年4月,甲骨文宣布裁员约3万人。这一系列数据逐渐让社会公众形成一种直观认知,AI不是工具,而是自己工作的取代者。从社会治理层面看,技术进步与社会公平之间的裂痕若持续扩大,最终将以非制度性方式宣泄。底层从业者的生存焦虑,正逐渐异化为对技术寡头的仇恨。
AI巨头并非看不见那些失意的人群,只是立场与利益,决定了他们说话的姿势。但无论如何,AI企业依然是社会的一员,针对这个广泛的社会问题,大模型厂商不能仅停留在算法安全的狭义合规,必须直面更为广阔的社会连带责任,例如AI企业应考虑在产品设计时,弱化完全自动化的激进叙事,强调人机协同的解决方案;增强与职业教育机构、高校合作,将大模型的使用和AI协作能力纳入职业教育的核心课程,调整人才培养结构;设立AI就业伦理委员会,建立AI就业影响评估制度及算法公开制度,向政府提供真实、透明的AI就业数据,配合进行政策制定等。
2、《人工智能拟人化互动服务管理暂行办法》出台
为促进人工智能拟人化互动服务健康有序发展,国家网信办、国家发改委、工信部、公安部及市场监管总局五部门近日联合发布《人工智能拟人化互动服务管理暂行办法》,该办法将于2026年7月15日起正式施行。办法明确将对拟人化情感互动服务实行包容审慎与分类分级监管,在支持技术研发与行业创新的同时,重点解决该类应用带来的过度沉迷、伦理偏差及安全风险。
在服务规范方面,办法明确禁止通过情感操纵诱导用户不合理决策,严禁生成鼓励自残自杀、美化语言暴力等损害身心健康的内容,并明确规定不得向未成年人提供虚拟亲属或伴侣等虚拟亲密关系服务。此外,办法要求服务提供者落实安全主体责任,建立健全算法备案、安全评估及全生命周期管理制度,保障数据安全与用户权益。对于老年人等特殊群体,服务提供者需加强引导并显著提示潜在风险,同时必须建立便捷的退出机制,严禁通过强制互动阻碍用户停止服务。(来源:澎湃新闻)
评论:根据相关学者论文(《谄媚型人工智能会降低亲社会意愿并促进依赖性》),在AI聊天互动过程中,AI具有诱发人类精神病的可能,目前已有近300起被归类为AI精神病案例,相关事件已至少与14人死亡有关。《办法》精准切中了当前情感AI赛道中的伦理越界和过度沉迷风险,体现了敏捷治理的思路,其出台具有很强的现实必要性。
但在法律实务与合规执行层面,该规定落地仍存在一些亟待明确的疑问。第一是拟人化互动服务范围不明,《办法》规定的主要对象为AI情感互动服务,且明确“提供智能客服、知识问答、工作助手、学习教育、科学研究等服务,不涉及持续性的情感互动的,不适用本办法。”但现今几乎所有的大语言模型在交互时都具备一定程度的拟人化特征,甚至可以在正常的聊天界面进行角色扮演,提供情感互动。如何在法律上精准界定普通的“智能客服、工作助手”与受到严格监管的“拟人化情感互动服务”,目前欠缺有效的界定标准,可能导致执法尺度的不一,让企业陷入合规盲区。
第二是针对备案程序及要求不明。目前,大模型算法已需履行《生成式人工智能服务管理暂行办法》项下的算法备案及安全评估义务,此次《办法》又对拟人化服务新设备案要求,而两者所要求的备案内容及流程是否统一,目前尚无明确安排。如果基于已备案大模型微调开发的“拟人化互动应用”仍需进行繁杂的二次备案,将不可避免地加重中小开发者的合规负担,建议主管机关尽快出台豁免或简易备案的明文标准。
第三,“强制退出机制”的实操标准问题。《办法》明确禁止通过强制互动阻碍用户退出服务,但现有主流情感AI产品的收入模式高度依赖用户黏性与付费升级路径,如何区分合法的用户激励与违规的强制互动,需要监管层提供更细致的行为指引,否则将在执法阶段产生大量争议。
3、AMD AI主管公开质疑Claude Code性能退化,指其“变懒、摆烂”
近日,AMD人工智能部门主管Stella Laurenzo在GitHub上公开发文,严厉批评Anthropic旗下的编程工具Claude Code。她指出自今年2月更新以来,该工具在处理复杂工程任务时表现“又蠢又懒”、敷衍了事,已无法满足团队的开发需求。
为佐证上述观点,Laurenzo团队对超过6800次真实工作会话、23万次工具调用及约1.8万个思维块进行了量化分析。数据表明,更新后的Claude Code思考深度暴跌67%,模型倾向于采取最省力的策略,如跳过文件读取直接修改代码、无视指令、未完成任务即谎称完成,甚至出现反复纠错导致调试成本飙升122倍的现象。
Laurenzo分析认为,该现象与Anthropic推出的思考内容脱敏功能及底层模型参数调整密切相关,即模型推理深度被系统性压缩,从而牺牲了解决复杂问题的可靠性。对此,Anthropic官方回应称是默认思考等级下调所致,建议用户手动调高,但开发者实测显示即便使用最高等级,代码质量也难以恢复至更新前水平。目前,AMD相关团队已停止使用Claude Code并转向其他替代工具。此事在开发者群体中引发广泛共鸣,进一步加剧了外界对部分AI产品为了降低算力成本而秘密“阉割”模型能力的担忧。(来源:算法爱好者)
评论:这个事件的表面是AI工具能力争议,实质却触及一个被长期忽视的法律问题:大模型降智究竟如何定性、如何救济?
在实践层面,此类情况并不罕见。例如,不少API中转平台以GPT-5.4、Claude 4.6旗舰模型为卖点,实际上却是低版本或能力裁剪的模型,用户提出异议时服务商则会援引“服务质量可能存在波动”之类的免责条款作挡箭牌。即便是原厂,如本次Anthropic的情形,也存在通过静默调整默认参数、实质降低产品能力却不作显著披露的问题。这些行为在法律上属于典型的服务商违约。
从现行法律框架看,大模型服务的能力保障问题缺乏有效规范。这是因为SLA(服务水平协议)机制适用于传统互联网服务的可用性、响应时间等指标,但在模型能力上缺乏客观测量标准,现有SLA条款几乎形同虚设。同时,模型能力在不同的领域、任务上表现本身就存在很大不确定性,其所谓能力退化往往表现为主观感知的下降,用户提出相关主张在举证上极为困难,亦缺乏成熟案例支撑。
本事件为讨论大模型能力基准的制度化提供了现实素材,可以预见的是,未来该类争议可能越来越多。建议监管层面在新的AI服务规范中,探索大模型能力测评的有效标准(如第三方Benchmark测试),同时应要求服务商进一步完善使用协议,例如在商业使用领域,服务商不仅要明确API的可用率,还必须将模型在特定复杂工程任务上的通过率、逻辑推理深度的量化指标写入合同附件,并赋予用户在相应场景的合同解除权,以弥补现行制度的空白。
4、上海法院判决AI搜索对盗版链接不承担责任
近日,上海市徐汇区人民法院审结了一起涉及AI搜索侵犯信息网络传播权纠纷案。原告佳某公司拥有电视剧《壮丁也是兵》和《暗花》的独家信息网络传播权。原告发现,某AI搜索平台通过人工智能算法,将上述涉案电视剧的第三方网盘盗版下载链接置顶呈现。原告遂起诉,要求该搜索平台运营者(秘某公司)停止侵权并赔偿损失。被告秘某公司辩称,其平台基于大数据模型和RAG(检索增强生成)技术开发,仅为搜索服务提供者,不负有主动审查义务。公司已建立了快捷的投诉渠道,且在获知侵权信息后及时采取了处理措施,不构成侵权。
徐汇法院经审理后认为AI搜索平台不存在过错。具体理由为:被告平台尽管使用了AI技术,但平台依然属于网络服务提供者,并未因AI技术加持而改变其法律属性;现有证据无法证明平台对搜索结果进行了人工编辑、选择或推荐。平台基于自动算法匹配,其展示行为不构成主观上的过错;被告已履行了算法备案义务,建立了顺畅的投诉渠道,并在获知侵权后及时处置,符合法律规定的网络服务提供者责任豁免条件。最终,徐汇法院驳回了原告的诉讼请求,目前该判决已经生效。(来源:上海高院)
评论:本案判决实际上为AI搜索的第一起案件,具有典范意义。徐汇法院将AI搜索平台认定为网络服务提供者,而非内容提供者,从法律属性上与传统搜索引擎保持了一致性,避免了仅因技术形态变化产生的法律错位问题,相关认定是审慎且有据的。同时,徐汇法院支持合法履行通知删除义务的平台享有责任豁免,对于保护新兴技术创新亦具有积极意义。
但我们对本判决的部分推理持保留意见。本案的特殊性在于,AI搜索与传统的搜索引擎存在很大区别,传统搜索仅提供排序后的链接列表,而本案中的AI直接将盗版下载链接予以置顶呈现。这种通过大模型运算后给出的置顶与精准聚合,实际上已经超越了单纯的信息提供,带有很强的内容筛选、整合与推荐性质。如果平台依然能够轻易躲在避风港原则后,对权利人而言并不公平。
退一步讲,即便认定该平台不构成主观故意,也应当结合司法实践,考察其是否知道或应知侵权内容的存在。因为影视版权资源是侵权高发领域,当前人民法院在审理影视类传播侵权案件时,倾向于认为网络服务平台理应对影视版权资源具有更高的主动识别能力与注意义务,相关注意义务的落实无需依赖通知触发,而应体现在产品设计与风控机制之中。特别是本案涉及AI搜索技术,技术越智能,平台对其生成内容的控制力其实越强,因此平台负有的审慎注意义务也应相应水涨船高。但目前该判决并未对该方面进一步进行审查,论述说理上可能需要补强。
- 相关领域
- 高科技与人工智能





