1、北京首例!4人利用AI侵犯著作权被判刑
6月13日,记者从北京市通州区人民检察院获悉,由该院提起公诉的北京市首例利用人工智能(AI)侵犯著作权刑事案件获法院判决支持。通过审理,法院认定被告单位福州市某电子商务有限公司犯侵犯著作权罪,判处罚金10万元;被告人罗某某、姚某某等4人因犯侵犯著作权罪,分别被判处有期徒刑一年六个月至缓刑,并处罚金6万元至2.5万元不等。

经查,被告人罗某某、姚某某等4人,于2024年3月至7月间,共谋从互联网平台下载他人美术作品后,使用开源软件生成侵权图片,制成拼图对外销售。经比对,被告人销售的多类拼图图样与张某、刘某某等多名著作权人享有著作权的美术作品关键元素一致,属于实质相同。经查,上述各被告人于涉案期间共售出侵权拼图产品3000余件,非法经营数额共计27万余元。
办案检察官仇怡然向记者介绍,当前,涉AI生成模型案件尚未有刑事判例可作参考。高技术、新手段是此类案件的显著特点,著作权如何认定、侵犯著作权行为如何在刑法意义上进行实质判断则是本案需要突破的主要难点。此外,使用公有领域再创作的作品是否享有著作权、如何理解判断演绎作品的独创性等也是摆在办案人员面前的问题。
为妥善解决这些可能存在的争议问题,通州检察院借助北京市人民检察院提供的专家智库平台,先后三次组织开展专家论证,邀请多名知产领域专家学者共同研讨、分析,听取意见建议,最终认定本案被告人AI处理后图片与原作“实质性”相同,利用在先素材创作的演绎作品,其演绎部分的独创性亦应受到法律保护。(来源:法治日报)
评论:本案是中国乃至全球范围内探索AIGC应用的法律边界的重要案件,通州法院以务实和审慎的司法态度,回应了使用AI工具实施侵权行为的法律责任认定问题。
本案核心案情为被告从互联网下载他人美术作品,使用开源软件生成“基本相似”的侵权图片,案件的难点之一在于如何判断AI处理后的图片与原作的关系。虽然目前案件没有公开其判决书,但本案判决已经说明,AI可能通过改变画风、调整细节、重构元素等方式对原作进行“风格迁移”,使得生成图在表面上与原作有别,但实践中人民法院会更关注两者在关键元素、核心表达上是否一致。本案中,由于AI生成图与原作构成“实质性相似”,其演绎的“独创性”部分并未达到足以构成独立新作品的高度,或其演绎行为本身未获授权,故仍属侵权,不影响其刑事法律责任的认定。
本案判决向AI行业释放了一个清晰信号,利用AI对他人作品进行“修改”“洗稿”,在法律上是行不通的。行为人不仅可能面临停止侵权、赔偿损失的民事后果,甚至还可能面临刑事责任,技术创新绝不能成为侵犯他人合法权益的“挡箭牌”。
2、迪士尼和环球影业将AI公司告上法庭
6月11日,全球娱乐产业巨头迪士尼和环球影业对人工智能公司Midjourney提起版权诉讼。这也是好莱坞大型公司首次卷入生成式人工智能的法律纠纷。
两家公司在诉讼中指出,Midjourney利用其版权库,生成并传播了大量如《星球大战》《小黄人》《怪物史莱克》《冰雪奇缘》《狮子王》等作品中著名角色的未经授权副本。
在长达110页的诉状中,迪士尼和环球影业提供了Midjourney生成图像与原版影视素材的对照示例,指出即便用户输入诸如“超级英雄战斗场景”等模糊提示,也能生成极类似于蜘蛛侠、雪宝、功夫熊猫等经典角色的图像。
两家公司强调,Midjourney并非利用“合理使用”法律豁免,而是通过大规模抓取网络公开素材进行训练,并持续忽视此前提出的“停止侵权”要求、并未采取任何技术措施加以遏制。
迪士尼高级执行副总裁、首席法律与合规官霍拉西奥·古铁雷斯表示,“我们的世界级IP建立在数十年资金投入、创意与创新之上,盗版就是盗版,由AI公司实施这一事实并不会减轻其侵权性质。”
环球影业执行副总裁兼总法律顾问金·哈里斯也称,“无论使用何种技术,盗窃就是盗窃,本案涉及对我们版权的公然侵犯。”
迪士尼与环球影业方面希望借此判例逐步建立AI使用许可机制,要求平台为使用数据支付合理授权费用,并强调版权维权是保护内容创造者和影视从业者的重要机制。(来源:界面新闻)
评论:迪士尼与环球影业作为影视行业巨头,向Midjourney发起诉讼,这一行动不仅标志着版权权利人与AI企业间的利益矛盾已激化到不可调和的程度,也凸显数据训练风险成为AI企业面临的首要法律问题。
迪士尼素有“法律必胜客”之称,此次诉讼更是有备而来。其在起诉状中,从输入、输出两端发起侵权指控:输入端,迪士尼直指Midjourney“大规模抓取网络公开素材进行训练”;输出端,迪士尼以“对照示例”证实,用户能轻易生成与“史莱克”“雪宝”等受版权保护角色极度相似的图像,Midjourney输出内容存在大量复制和改编行为。此外,迪士尼还将瓦解“合理使用”适用性作为战略核心,多次强调Midjourney的商业营利属性,及其生成内容对自身授权商品、新内容创作等市场的直接替代影响。
迪士尼此次诉讼目标远不止赔偿金或停止侵权,而是意图通过这一标杆性诉讼,确立AIGC公司使用版权数据训练必须获得授权并付费的法律先例,进而推动建立AI使用许可机制,保护内容创造者与影视从业者权益。
从迪士尼披露的指控与证据判断,Midjourney在本次诉讼中面临着巨大法律风险,一旦败诉或将承担巨额赔偿,甚至可能导致其业务雪崩。不过,鉴于美国司法实践,案件要得出最终生效判决可能需耗时数年。但无论结果如何,这场诉讼都宣告AI企业无视版权边界的“野蛮生长”时代终结,围绕AI权利、责任与利益的重新分配已正式开启,后续发展值得持续关注。让我们拭目以待。
3、欧盟《人工智能法案》关键条款的实施时间可能推迟
欧盟《人工智能法案》部分条款实施时间或迎关键调整。作为全球首部系统性规范AI风险的法规,其首批限制措施已于2025年2月落地,而原定于2025年8月及2026年生效的核心条款,因技术标准制定滞后、合规框架复杂性高,以及配套的《通用人工智能模型开发者行为准则》超期未发布等因素,实施进程或被推迟。欧盟委员会执行副主席维尔库宁已证实相关讨论,称若支持性标准未就绪将不排除调整。
目前,微软、谷歌等科技巨头正推动简化合规要求,行业协会亦呼吁延长合规窗口期;欧盟内部立场分化,波兰、德国等国对推迟持开放态度,西班牙则强调需在简化规则与强化监管间平衡。尽管法案目标未变,但部分成员国建议将未实施条款推迟两年,同时推动“监管沙盒”等过渡措施。据悉,欧盟正制定数字简化方案,而通用AI模型提供商的义务仍暂按8月期限推进,监管动态持续引发行业关注。(来源:清华大学智能法治研究院)
评论:从法律技术上来看,欧盟《人工智能法案》设立的风险分层框架、全流程监管、多方主体义务设定等监管体系在理论上堪称完美,后续很多国家在立法中都参考了这一设计。但该法案的落地依赖于一系列技术标准,例如如何量化高风险AI的稳健性、准确性和安全性等。然而,AI技术本身的能力和风险往往是涌现出来的,难以在事前被完全预测和穷尽,欧盟的标准化组织显然无法胜任。如果标准过于严苛、事实过于仓促,可能会适得其反,导致欧洲本土AI企业穷与应对监管,在全球竞争中落后于监管环境相对宽松的美国和中国。此前,法国开源AI助手露西(Lucie)建议用户吃“牛蛋”就是最好的例子。
本次核心条款的推进延迟,很大程度上源于科技巨头和行业协会的游说。但显然,欧盟选择了一个更稳妥的策略,与其强行推进一个配套尚不成熟的法案,不如选择性地推迟部分条款,推动监管沙盒等过渡性工具,用时间换空间,让监管能力与技术发展水平相匹配,确保法案最终能平稳、有效地落地。
4、北京部分企业因未依法履行数据安全保护义务被查处
6月14日,近期部分企业因未依法履行数据安全保护义务,导致相关系统、服务器或数据库存在未授权访问漏洞和弱口令漏洞等问题,造成数据被窃取,北京市网信办依法对涉案企业进行了查处。
在北京市网信办通报的典型案例中,北京某科技公司在开展业务过程中,因技术人员缺乏数据安全保护意识,未对后台业务系统的接口配置访问控制和身份认证等安全措施,导致该系统存在未授权访问漏洞,使储存于其中的姓名、身份证号、手机号等个人信息数据暴露于互联网,并被境外IP访问窃取。
另一起案例显示,北京某有限公司在开展业务过程中,为方便系统测试,将部分服务器端口对外开放且未限制访问,使储存于其中的姓名、手机号等个人信息数据暴露于互联网,并被境外IP访问窃取。
以上两家企业均未依法履行数据安全保护义务,未建立健全全流程数据安全管理制度,相关系统未采取技术措施和其他必要措施保障数据安全,造成部分个人信息数据遭窃取,北京市网信办依法对两家公司作出警告,并分别处以五万元罚款的行政处罚。(来源:新华网)
评论:AI行业还沉浸在95%的代码将由AI生成的美好愿景,但网信办的通报则显示了他们的安全风险可能已经迫在眉睫。本次网信办披露的两个案例,点出了当前许多AI初创企业普遍存在的“通病”:第一,重业务、轻安全,为了快速迭代产品、方便系统测试,技术人员往往会选择走捷径,例如开放不必要的端口、在接口上省略复杂的身份认证。这种设置在业务初期可能不显眼,但一旦被攻击者发现,就会瞬间引爆,造成不可挽回的损失。第二,制度与技术措施缺失,网信办通报的企业“未建立健全全流程数据安全管理制度”且“未采取技术措施”,这说明其数据安全防护既没有顶层的制度设计,也没有底层的技术支撑,基本处于裸奔状态。
对于AI企业来说,数据安全问题的严重性被指数级放大了。AI的研发与应用,从数据采集、清洗、标注,到模型训练、部署、推理,整个生命周期都与海量、高价值的数据深度绑定。供应链漏洞、敏感信息泄露、训练数据投毒、内容安全风险、算力恶意损毁、提示词操纵等,都是大模型面临的安全问题。实践中,因AI技术应用导致的安全事件也越发频繁,比如近期微软365 Copilot便被曝出存在零点击漏洞,攻击者只需向用户发送一封电子邮件即可发起攻击,获取敏感数据。因此,AI企业的数据安全水位,直接决定了其商业价值的稳定性和未来发展的可持续性。一次严重的数据泄露,不仅会面临远超五万元的罚款,更可能导致用户信任崩塌、核心模型资产被窃、业务停摆甚至被市场淘汰。AI企业必须立刻行动起来,从管理、技术和文化层面,将数据安全保护义务真正落到实处,才能在日趋严格的监管环境下行稳致远。
- 相关领域
- 高科技与人工智能





