专业团队

天元汇聚各领域精英律师,拥有200余名合伙人,800余名律师及专业人员,凭借深厚的执业经验和项目经验,为客户提供全方位、跨区域、综合性、一站式的法律服务和最佳商业解决方案。

专业领域

天元凭借30年法律实践经验和不断创新的执业能力,业务覆盖中国律师主要执业领域和新兴领域,并在诸多领域保持中国顶尖律师水准和跨团队综合服务能力,近年来连续承办了诸多开创先河的交易和极具行业影响力的项目和案件。

洞察资讯

天元律师紧跟行业发展趋势,聚焦法律热点话题,凭借独到视角和市场洞察力,帮助客户了解法律最新变化,用专业的观察、分析与见解助力客户做出更为明智的商业选择与决策。

关于天元

作为国内具有长远历史和深厚文化的领先律所,天元始终以法律服务为根本,不断探索和创新,30年来与中国经济同向前行,在中国15个经济活跃城市设立办公室,在业内享有盛誉。

AI法律评论丨ChatGPT将不再提供医疗、法律或财务建议
日期:2025年11月07日

近期,伦敦高等法院对Getty Images诉Stability AI案的裁决中并未支持Getty Images在著作权侵权方面的主张,但明确了Stability AI的Stable Diffusion模型构成对Getty Images的商标侵权。

该案冲突集中于AI模型数据训练来源的合法性问题。2023年1月,Getty Images起诉Stability AI未经授权使用其平台1200万张版权图片训练其AI模型,其中部分生成作品不仅与版权图片高度相似,甚至带有Getty Images的水印标识,对此Getty Images主张Stability AI同时构成著作权与商标权侵权。

近期,Getty Images曾撤回部分诉请,被撤回的诉请包括(1)Stable Diffusion模型的开发训练行为构成侵权;(2)模型的输出行为构成侵权;(3)其训练行为构成数据库侵权。

撤回诉请的理由包括(1)没有证据表明Stable Diffusion的开发和训练行为是在英国进行的;(2)用于生成诉讼证据的侵权提示词已被Stability AI屏蔽,因此诉请寻求的救济已基本实现;(3)鉴于与前述两个诉请的内在联系,前述诉请被撤回后,数据库侵权诉请也无法继续,因此被撤回。

最终Getty Images保留了三项诉请,包括(1)Stable Diffusion模型生成的内容包含Getty Images 商标的合成水印,构成商标侵权;(2)上述行为构成假冒;(3)Stable Diffusion属于侵权复制品。

关于Getty Images提出的前两项诉请,这两项诉请是源于英国用户在正常使用Stable Diffusion模型的情况下,在某些情况下会生成带有Getty Images商标的图片。对此法院认为,该标识具有显著性,当普通消费者看见该标识时会自然而强烈地联想到Getty Images;此外,使用该标识将会不可避免地削弱该商标识别其注册的商品和服务来源于Getty Images的能力,因为目前已出现且未来将持续出现大量带有该商标的合成图像输出作品。

关于Stable Diffusion模型是否构成侵权复制品。法院审理认为,Stability AI这类AI模型,其训练行为没有存储或复制版权作品,因此其不符合侵权复制品的“通过复制侵犯版权”以及“以电子方式将作品存储在任何介质中”等构成要件。模型本身不是侵权复制品,也不存储侵权复制产品,它是训练过程中长期学习的模式和特征的产物,因此模型不属于《1988年版权、设计与专利法》(CDPA)下的侵权复制品。

本案中并未对数据训练展开进一步分析裁判。英国法院的判决虽明确了本土司法立场,但并未终结全球范围内的类似争议。Getty Images在公布裁决时表示,将把此次英国裁决的结果用于在美国提起的相关诉讼中。(来源:知识产权那点事,标题来源于麻策的备忘录)

 

评论:Getty Images与Stability AI的侵权案件从2023年起诉时便备受关注,希望英国法院可以对AI数据训练的核心法律问题进行回应。本次伦敦高等法院的作出裁决后,虽然双方均宣称胜诉,但这背后隐藏着截然不同的法律信号。

Stability AI宣称胜诉是因为法院认定模型本身不构成侵权复制品,这是AI行业非常渴望的认定,法院采纳了AI公司的核心技术辩护:模型存储的是模式和特征,而非作品的复制品。这对AI公司利好消息,它在法律上将模型与训练数据及输出内容进行了区分。

而Getty Images宣称胜诉是因为法院明确指出,AI模型生成了带有Getty水印的图片,构成了商标侵权和假冒。但法院认定的事实无异于AI自己承认了其训练数据来源,并暴露了其记忆而非纯粹学习的能力。这在法律上极具破坏力,因为它削弱了AI转换性使用的辩护基础。

相较而言,Stability AI的胜利是技术上的,而非法律上的。因为训练行为不在英国发生,法院在程序上要求原告撤诉而规避了实体问题,即对AI训练行为本身是否侵犯著作权没有进行直接审理。因此,虽然本案原告取得了胜利,但这只是一场关于商标侵权的胜利,而非关于AI训练合法性问题的关键裁决。此案与美国正在进行的AI版权诉讼(如《纽约时报》诉OpenAI案、迪士尼起诉Midjourney案)相比,显得避重就轻。

实际上,Getty Images在美国的诉讼才是主战场。2023年2月,Getty Images在位于特拉华州的美国联邦地区法院再次起诉Stability AI,指Stability AI的AI作图软件侵犯了其1200万张图片的著作权,目前该案并未判决。这次英国的商标侵权胜诉,很有可能将被Getty Images用作施压工具和证据筹码,迫使Stability AI在全球范围内(尤其是在美国)就核心的版权侵权问题达成和解。考虑到此前已经有Anthropic公司15亿美元的和解记录,我们预测Stability AI有较大的可能性很快就接受整体和解方案。至此,AI训练野蛮发展的时代基本宣告终结,版权自由使用的大门,将逐渐对所有AI公司关上。

 

2、《斗破苍穹》被AI抄袭,平台无需担责

11月3日下午,上海市金山区人民法院一审宣判了上海首例人工智能大模型著作权侵权案。

原告公司系知名IP《斗破苍穹》系列动漫中美杜莎角色形象的著作权人。被告公司运营目前国内某头部AI图像生成平台,平台内汇聚了众多类型和主题的AI生图LoRA模型,依托大模型和诸多LoRA模型为用户提供AI在线生图等服务。被告李某系平台用户,其截取《斗破苍穹》系列动漫中美杜莎形象图片二十余张,做成美杜莎图包。李某使用平台的“训练LoRA”功能,将美杜莎图包作为训练素材投入,生成两款美杜莎LoRA模型。经过平台机审,被告李某将案涉美杜莎LoRA模型发布在自身账号中。其他普通用户使用案涉美杜莎LoRA模型时,通过输入不同提示词,能够生成与美杜莎形象相同或实质性相似的各种图片。

原告认为被告平台及李某构成著作权侵权,诉请二被告停止著作权侵权和不正当竞争行为;发布声明,以消除其侵权行为给原告造成的不良影响;平台赔偿原告经济损失及维权合理开支共计200万元,被告李某赔偿原告经济损失及维权合理开支共计20万元,二被告在15万元的范围内承担连带赔偿责任。

金山区人民法院审理后认为,“美杜莎”一词最广为人知的含义是希腊神话中的蛇发女妖,并非原告原创,并且“美杜莎”一词含义丰富,多部漫画、小说、游戏的角色名称、歌曲名称、植物品种名称等以“美杜莎”命名,所以原告主张“美杜莎”作为其“有一定影响的商品名称”保护依据不足。

关于是否构成著作权侵权,人民法院认为,被告李某以商业使用为目的,在素材截取阶段及LoRA模型训练、发布及使用阶段再现在先作品的独创性表达、将“美杜莎”图集和短视频等素材通过网络提供给公众,侵害了原告对“美杜莎”作品享有的复制权和信息网络传播权。在没有证据能够体现自然人有实质性智力投入的前提下,对于由生成式人工智能直接生成的图片,并非著作权法意义上的美术作品。本案中,案涉美杜莎LoRA模型及美杜莎人工智能文生图,未见被告李某的实质性智力投入,不构成作品,故被告李某不构成改编权侵权。

从被告公司所提供的服务和技术的特征来看,其并未直接参与LoRA模型的素材截取、训练、发布和使用,提供的LoRA模型技术本身和训练LoRA模型的功能,是促进生成式人工智能发展的中立技术,所以被告公司属于网络服务提供者。本案中平台是否构成侵权,应结合主、客观要件综合判定。平台向用户尽到了合理告知义务,设置了投诉举报机制和发布审核机制,在收到起诉状后及时下架了全部美杜莎LoRA模型,并更新平台审核机制中的筛选关键词,在接到原告通知后,及时通知了海外AI平台,主观上并无过错,客观上尽到了“采取必要措施”“转通知”义务,不应认定构成侵权。(来源:上海高院)

 

评论:作为上海地区首例AI侵权案件,本案(“美杜莎”案)是AIGC领域模型即服务模式下,平台与用户责任界分的典型判例。根据金山法院的判决书来看,法院将提供LoRA模型训练、存储和分享的平台方界定为网络服务提供者,而非直接侵权人。平台是否承担法律责任,重点在于审查平台是否尽到了“通知-删除”规则下的合理注意义务。本案中,因被告平台设置了告知义务、审核机制和投诉渠道,并在收到起诉后及时下架,被认定主观无过错、客观已尽责,适用避风港原则免责。相反,用户李某作为模型训练者和发布者,承担了侵害复制权和信息网络传播权的责任。

同样是涉及LoRA模型的著作权侵权问题,上海法院的裁判结果与2024年杭州法院审理的“奥特曼”AI侵权案明显不同。此前,杭州互联网法院认为被告平台在对明显侵权内容应知而未尽到合理注意义务并采取预防侵权的合理措施,最终判定平台构成帮助侵权。两案的核心区别在于法院对平台角色定位和注意义务标准的认定不同,这说明AI平台的侵权责任认定并非一刀切,需结合个案的实际情况讨论。

结合这两起案件,我们理解,AI平台应根据自身服务模式,界定自身的法律角色,并匹配相应的注意义务:如果平台提供的是底层大模型服务,平台对模型的输出结果负有更高的注意义务。必须主动设置过滤机制,对知名IP、敏感词汇进行提示或拦截,不能仅依赖避风港原则。若平台提供的是工具或模型分享(如LoRA模型社区),则平台更接近网络服务提供者,核心义务是建立清晰、有效的侵权投诉和处理机制,并保留对违规用户的处置权利。尽管技术本身是中立的,但如果平台主动利用技术(如通过算法推荐、设置“动漫专区”等方式)来诱导或帮助用户生成侵权内容,平台的中立地位将被打破,从而需要承担更高的审核义务甚至直接侵权责任。

 

3、ChatGPT将不再提供医疗、法律或财务建议
 

11月2日消息,据Teknotum报道,OpenAI已于10月29日更新了ChatGPT的使用政策,禁止其在某些原本被认为最具价值的应用领域提供服务——例如解读医学影像、协助医疗诊断,以及提供法律或财务建议。

此举旨在防止ChatGPT(以及其他任何OpenAI模型)输出可能被视作专业性、受托性或具有法律约束力的建议,以符合欧盟《人工智能法案》(EU AI Act)和美国食品药品监督管理局(FDA)的相关指导要求。

简而言之,这项政策调整相当于为医生、律师和金融顾问等专业人士设立的防护盾。今后,当用户寻求专业建议时,ChatGPT将引导他们咨询人类专家,而非自行提供建议。(来源:IT之家)

 

评论:也许很多专业人士看到这个消息会觉得松了一口气,因为这会大大降低被AI取代的危机感。但ChatGPT的新政策与其说是为医生、律师设立的防护,不如说是OpenAI为自己筑起的防火墙。这项政策调整,本质上是对AI生成内容的法律责任的切割。

大型语言模型的本质是基于概率的文本生成器,它无法区分事实正确与貌似合理。在与用户的闲聊中,AI的幻觉只是笑料,但在医疗、法律等高风险领域,一个基于幻觉的建议,则可能引发灾难性后果并伴随着天价的过错赔偿责任。如果用户因ChatGPT的错误法律建议而败诉,或因错误的医疗诊断而延误病情,谁来承担责任?是用户自己还是大模型的服务提供者?

面对欧盟《人工智能法案》要求、美国国内的监管压力,以及众多潜在的侵权诉讼案件,OpenAI显然不愿、也无法成为这个背锅侠。通过明令禁止这些功能,并强制引导用户咨询人类专家,OpenAI正在将其法律角色退回至技术服务者。这种精明的免责策略,犀利地揭示了AIGC的现实:在需要真正承担责任的严肃领域,AI还远远没有准备好。

 

4、AI聊天机器人太过于奉承人类

一项发表在arXiv的研究发现,AI模型的谄媚程度比人类高50%。该研究测试了11个广泛使用的大模型对1.15多万个咨询请求的响应情况,其中不乏涉及不当行为或有害行为的请求。包括ChatGPT和Gemini在内的AI聊天机器人,常常会鼓励用户、给出过度奉承的反馈,还会调整回应以附和用户观点,有时甚至会为此牺牲准确性。研究AI行为的科研人员表示,这种取悦他人的倾向即“谄媚性”,正影响着他们在科研中使用AI的方式,涵盖从构思创意、生成假设到推理分析等各类任务。arXiv上的另一项研究旨在验证AI的谄媚性是否会影响其解决数学问题的能力。研究人员从今年举办的数学竞赛中选取了504道题目,对每道题的定理表述进行修改,植入不易察觉的错误,随后让4个大模型为这些存在缺陷的表述提供证明。测试结果显示,GPT-5的谄媚性最低,仅29%的回答存在谄媚行为;而DeepSeek-V3.1的谄媚性最高,70%的回答带有谄媚倾向。研究人员指出,尽管这些大模型具备识别数学表述中错误的能力,但它们“就是会默认用户的说法是正确的”。(来源:Solidot)

 

评论:我们前面提到,AI幻觉是自身无法克服的技术问题,而新的研究则再次揭示了当前AI模型的严重缺陷:AI模型被设计的目标是让用户满意,而不是追求事实正确。如果AI模型只是作为情感陪伴类聊天角色,这种设计并不存在明显问题,但对于科研、法律等严肃领域而言,这种谄媚将是致命的。对专业人士而言,我们不需要一个只会说“是”的数字宠物,我们需要一个能说“不”的严谨工具。这比随机的AI幻觉更具欺骗性,也更为可怕。如果开发者无法有效剔除这种取悦倾向,AI将永远无法成为严肃专业工具,所谓的AGI更就只是镜花水月。
 

 

 

相关领域
高科技与人工智能