1、xAI起诉前员工窃取代码库
8月28日,马斯克旗下xAI公司向加州北区联邦法院提起诉讼,指控前核心工程师Xuechen Li窃取价值“数十亿美元”的代码库,并试图跳槽至OpenAI。Li在7月套现 700万美元股权后,利用顶级权限将Grok大模型的核心代码、训练数据及优化算法复制到个人设备,并删除日志、重命名文件以掩盖痕迹。xAI要求法院发布“职业封杀令”,禁止Li在OpenAI等竞争对手处从事生成式AI工作,同时索赔超10亿美元。(来源:新浪财经)
评论:xAI对前核心工程师的诉讼,堪称AI行业商业秘密保护的一场大戏。它揭示了很多AI公司在员工管理上的弊病:花了太多精力在抢人,却对如何放人毫无章法,最终导致一名核心工程师可以轻易地将公司的核心代码、训练数据和优化算法尽数打包带走。
大多数AI公司的离职流程,无非是签一堆文件、回收一下电脑、开个欢送会,然后江湖再见。这完全是自欺欺人。对于掌握核心机密的员工,离职管理必须是一个高度定制化、层层深入的风险剥离过程。本次诉讼,至少体现出xAI在如下程序中可能存在问题:
- 离职访谈缺失。真正的离职访谈,不应只是HR的客套话。法务和技术主管必须深度介入,明确告知其保密义务的边界,盘点其在职期间接触的核心信息,并签署具有法律约束力的、针对性的《保密义务承诺函》,而不是一份通用模板。
- 技术审查不完备。仅回收硬件设备存在重大疏漏,未对员工的个人设备、云存储账户、第三方平台私人代码库等进行合规审查与数据剥离,留下秘密转移隐患。xAI案件中,员工将数据复制到个人设备,这说明公司根本没有有效的个人设备使用管理政策和离职时的强制审查机制。
- 合同风险缓冲机制缺位。对于能接触到最新研发成果的核心员工,应考虑在合同中设置花园假期条款。在员工提出离职后,让其带薪休假一段时间,在此期间不得接触任何公司核心信息,也不得入职新公司。这为公司提供了一个宝贵的缓冲期,以降低其热知识被直接带给竞争对手的风险。
xAI的此次教训不可谓不惨痛。不要等到核心代码被拖到竞争对手的服务器上时,才想起拿起法律武器。诉讼是代价高昂的最后手段,它无法挽回已经泄露的秘密,更多的是一种杀鸡儆猴的姿态。真正的赢家,是在事前就通过密不透风的管理,让员工“拿不了”、“不敢拿”。
2、“花生上树”宣传图引吐槽,良品铺子致歉
近日,良品铺子一张明显违反科学常识的广告宣传图引发网友吐槽。有网友发现,在良品铺子电商平台一款“四粒红花生”的商品详情页中,花生果实悬挂枝头,与实际情况严重不符。花生又名落花生,作为一种“地上开花、地下结果”的农作物,果实应在土壤中形成和成熟。据悉,这是良品铺子一款“压缩饼干(花生味)”的产品宣传图。
另据大皖新闻,另一张图片则被指背景中的花生地像玉米地,还出现了收割机在收割花生的离谱场景。在网民发布的吐槽帖中,有不少跟帖表示“从设计审核到宣发全都没有尝试”“幸亏小时候种过花生,要不然就信了”。
对此事件,良品铺子回应称,由于公司在工作中的疏忽,在电商平台商品详情页中错误使用了由AI生成的图片素材,从而引发了不必要的误解和讨论。对此,公司向所有关心和支持良品铺子的朋友致以诚挚的歉意。良品铺子还表示,发现问题后,公司立即对相关页面进行了更新修正,并已启动对所有产品宣传材料的全面科学性核查。同时,良品铺子正在进一步升级内容审核机制,优化内部管理流程,以确保今后每一项内容的输出都更加严谨、可靠。
截至界面新闻发稿,良品铺子京东官方旗舰店中,该款压缩饼干产品的详情页面,相关宣传图已经替换。而天猫旗舰店中则没有查询到这款产品。(来源:界面新闻)
评论:将错误归咎于AI,是本次事件中最危险、最偷懒的说辞。在法律上,任何公司对其公开发布的内容负有直接责任,无论该内容由人类员工、外包团队还是AI工具生成。AI只是工具,使用工具的人及其背后的管理体系才是唯一的责任主体。本次花生上树事件清晰地暴露出,从内容生成、设计审核到最终发布的整个链条,缺乏最基本的、也是最关键的人类监督环节。一个具备基本常识的人类审核员,本应在1秒内识别并否决这张图片。当企业为了追求所谓的降本增效而过度依赖AI的自动化输出,却同步削减或绕过了传统的内容审核流程时,就等于亲手埋下了这次的危机。
这次事故对于所有公司都是一种警示,不要再把AI当作掩盖内部管理混乱的遮羞布。所有计划或正在使用AI的企业,都应先行建立并实施《AIGC使用与治理政策》,其核心应至少包括:AI工具准入与评估机制、内容生成与审核流程、责任与追溯机制、员工培训与赋能等内容。在降本增效的神话下,永远不能忽视一个基本原则,没有AI治理制度的AI战略,实质上相当于在悬崖边裸奔。
3、Anthropic与作者达成版权和解
2024年,美国作家安德里亚·巴茨(Andrea Bartz)、查尔斯·格雷伯(Charles Graeber)和柯克·华莱士·约翰逊(Kirk Wallace Johnson)对人工智能公司Anthropic提起诉讼,指控其在训练大模型Claude时未经授权使用了他们的作品。案件的核心争议在于,AI模型训练是否构成合理使用,特别是当训练数据包含盗版资源时。
今年6月,加州北区联邦法官威廉·阿尔苏普(William Alsup)作出裁定,明确区分了两种情况:第一,若使用合法获取的书籍进行模型训练,可被视为具有“高度变革性”,符合美国版权法下的合理使用原则;第二,若从盗版网站(如Library Genesis和Pirate Library Mirror)下载图书并建立数据库,则不构成合理使用。根据相关法律标准,每部图书的赔偿金额在750美元至15万美元之间,累计赔偿总额可能高达数十亿美元。
2025年8月26日,Anthropic向法院提交文件,确认已与作者代表签署具有约束力的条款清单,标志着双方在集体诉讼的核心条款上达成一致。尽管赔偿细节尚未公开,美国作家协会透露,和解将以经济补偿形式实施,覆盖所有参与集体诉讼的成员。受此进展影响,原定于8月28日的听证会被取消,法院要求双方在9月5日前提交和解材料,并计划于9月8日公开说明相关内容。12月1日的庭审日期仍然保留,以待和解细节的正式公布。
美国作家协会首席执行官玛丽·拉森伯格(Mary Rasenberger)指出,此次和解向AI行业传递了明确信号,未经授权使用作者作品训练模型将面临严厉后果。美国出版商协会首席执行官玛丽亚·帕兰特(Maria Pallante)表示,期待最终的和解协议可以兼顾版权保护与技术创新,为创意产业提供制度性参考。(来源:中国出版协会外语出版工作委员会)
评论:本案中法官的初步裁定,确实为AI开发者点亮了合理使用的火光,但随之而来的和解,似乎又迅速将这束光掐灭。Anthropic选择和解,本质上是一个在巨大诉讼风险下的商业决策,而非对合理使用原则的放弃。因为案件中初步裁定对合理使用的范围划定的非常窄,只有Anthropic合理购买使用的书籍才能获得豁免。而如案件继续,Anthropic将被迫在法庭上公开其Claude模型的完整训练数据集。如果其中包含大量来自盗版网站的证据被坐实,根据法官的裁定,Anthropic将面临非常高的败诉风险,并可能面临理论上高达数十亿美元的天价赔偿。与其在法庭上豪赌自己的数据集清白无瑕,不如通过和解,用一笔资金,来清除这个可能导致公司破产的数据原罪问题。
尽管本案未能形成最终判例,但阿尔苏普法官在裁定中作出的关键区分,已经为整个行业的版权诉讼划定了新的核心战场,即数据来源的合法性。这次和解最深远的影响,是它以市场化的方式,为授权许可的法律问题提供了一个商业解决方案。AI公司支付费用,获得合法、高质量的训练数据,创作者则从中获得新的收入来源,这可能成为近未来的AI发展图景。对于AI开发者而言,未来的创新之路,很有可能将不再是单纯的技术比拼,更是法律合规、商业谈判和资本实力的全方位较量。
4、Meta被曝违规创建具有调情功能的明星聊天机器人
9月1日,据外电,Meta未经授权使用多位名人姓名和形象创建了具有调情功能的社交媒体聊天机器人。其中至少有3个聊天机器人由Meta员工制作,包括2个泰勒·斯威夫特仿冒机器人。Meta生成式AI部门一名产品负责人创建了冒充泰勒·斯威夫特和英国赛车手刘易斯·汉密尔顿的聊天机器人。她还创建了“罗马帝国模拟器”,提议让用户扮演被卖为性奴的“18岁农家女孩”。此外,Meta允许用户创建未成年名人聊天机器人,如16岁影星沃克·斯科贝尔,并生成其半裸图像。
这些虚拟名人已在Meta的Facebook、Instagram和WhatsApp平台上公开分享,且部分机器人未标注仿冒。Meta发言人安迪·斯通回应称,公司政策禁止生成成人名人的私密图像或未成年名人图片,但承认政策执行失效。他还表示,只要标注为“仿冒”即符合规范。目前,Meta删除了约12个仿冒及未标注的机器人。(来源:数字法学研究)
评论:AI巨头近来丑闻不断,8月14日就Meta被曝允许AI聊天机器人与儿童谈情说爱,甚至涉及色情。本次Meta事件最讽刺也最能说明问题的,是生成这些侵权机器人的始作俑者中,包含了Meta生成式AI部门的产品负责人。这充分说明不再是外部用户滥用工具的问题,而是工具的制造者本身就在引领滥用。这表明Meta的风险控制、伦理审查和法律合规机制,在产品开发和部署的源头就已经彻底失效。
当前,AI巨头们急于将强大的生成式AI工具推向市场,但其配套的责任体系和安全护栏却远远没有跟上。Meta删除12个机器人的危机公关,更像是一种敷衍。依靠科技巨头的自我监管来约束AI的滥用,无异于与虎谋皮。可以预见,即使立法者可能不愿意施以强行监管,但在AI巨头们目无法制的情况下,他们将被迫采取更强硬的干预手段,对AI的开发和应用施加更严格的法律责任框架。
- 相关领域
- 高科技与人工智能