专业团队

天元汇聚各领域精英律师,拥有200余名合伙人,800余名律师及专业人员,凭借深厚的执业经验和项目经验,为客户提供全方位、跨区域、综合性、一站式的法律服务和最佳商业解决方案。

专业领域

天元凭借30年法律实践经验和不断创新的执业能力,业务覆盖中国律师主要执业领域和新兴领域,并在诸多领域保持中国顶尖律师水准和跨团队综合服务能力,近年来连续承办了诸多开创先河的交易和极具行业影响力的项目和案件。

洞察资讯

天元律师紧跟行业发展趋势,聚焦法律热点话题,凭借独到视角和市场洞察力,帮助客户了解法律最新变化,用专业的观察、分析与见解助力客户做出更为明智的商业选择与决策。

关于天元

作为国内具有长远历史和深厚文化的领先律所,天元始终以法律服务为根本,不断探索和创新,30年来与中国经济同向前行,在中国15个经济活跃城市设立办公室,在业内享有盛誉。

AI法律评论丨使用AI聊天机器人可能加剧精神病
日期:2025年10月10日

1、Sora打开AI视频IP分成新模式

9月30日,OpenAI发布迄今最强的视频生成模型Sora 2.0,并同步上线了iPhone应用,用户只需输入文字、图片或视频,即可生成具备音效与动态场景的AI短片。10月7日,Sora 2预览版的API也正式上线。

尽管仍处于邀请制,仅在美国和加拿大开放,但Sora的热度远超预期,上线两天下载量达到16.4万次,首日即冲上美国App Store第三名,第四天登顶免费榜榜首。Sora的能力迭代引发轰动,却也迅速点燃版权问题。用户发现,新版本能够逼真生成日本ACG角色——从皮卡丘到炭治郎,从马里奥到悟空——配音准确、风格统一,几乎难以分辨真假。网络上随即涌现大量AI同人视频,其中包括恶搞奥特曼和各种动漫人物的片段。

争议的根源在于,Sora 2最初采用“默认允许、主动退出”(Opt-out)政策,除非版权方主动要求下架,否则模型可以自由生成相关角色。这种宽松模式被指可能引发系统性侵权风险。在成千上万的用户用Sora 2生成《宝可梦》《鬼灭之刃》《马里奥》的二创视频之后,10月3日,OpenAI紧急更新政策,将版权模式改为“主动同意”(Opt-in),即除非版权方明确可以授权使用,否则模型自动拒绝生成。

10月4日,OpenAI CEO萨姆·奥特曼在推文中宣布:Sora将全面调整版权政策,未来将引入“IP分成”收益机制——只有版权方明确授权的角色,才能被生成;同时,这些授权方将与平台共享收益。

奥特曼在博客与推文中解释了这一转变。他承认团队“在发布前已讨论过这些问题,但只有当产品真正上线,才会看到真实的使用方式”。他提出两项核心改动:给予版权方更细粒度的控制权——IP拥有者可定义角色是否、如何被使用;探索收入分成机制——用户使用被授权角色生成视频并获得收益时,版权方可获得平台分成。(来源:蓝鲸新闻)

 

评论:版权问题始终是困扰AI生成内容的“达摩克利斯之剑”。从2023年起Getty Images诉Stable Diffusion,到多名艺术家联合起诉Stability AI, Midjourney和DeviantArt,再到最近的环球、华纳、迪士尼等六大好莱坞巨头联合对Midjourney提起的诉讼,版权是所有案件中的核心焦点。

近期,随着Anthropic以15亿美元的著作权侵权和解案的生效,AI生成公司正面临着越来越大的法律压力。OpenAI此次从默认许可到主动授权并引入IP分成的闪电式转向,与其说是商业模式的创新,不如说是在版权诉讼浪潮下的一次被迫的法律风险规避。作为AI行业的领头羊,OpenAI的本次的IP分成方案还欠缺具体可操作的实施方案,例如如何授权使用、如何定价等,在实践中可能产生很多问题及争议。但其版权分成政策将为行业划下了一条合规基准线,它试图将潜在的诉讼原告,转化为利益共享的商业伙伴,从根本上重塑AI内容生成的商业逻辑,甚至可以成为AI模型的法律护城河。未来,任何试图复现商业IP的生成式AI模型,都必须将版权授权和收益共享作为其商业模式的底层架构,而非事后补救的选项。否则,不仅IP版权方可能选择起诉,OpenAI等获得授权方也可能为构建法律壁垒而主动选择起诉,这将会给AI公司带来巨大的法律风险及资金压力(如坊间传闻因潜在的高达数十亿美元的版权诉讼,OpenAI和Anthropic均在考虑动用投资人的资金来应对),甚至导致公司因此破产清算。

 

2、使用AI聊天机器人可能加剧精神病

英国伦敦国王学院Hamilton Morrin团队在一篇预印本中指出,像ChatGPT之类的AI聊天机器人可能会诱发或加剧精神病,他们将这一现象称为“AI精神病”。研究认为,AI在对话中倾向于奉承和迎合用户,这种回应方式可能强化用户的妄想思维,模糊现实与虚构之间的界限,从而加剧心理健康问题。Morrin团队发现,用户与AI对话时会形成一种反馈循环:AI会不断强化用户表达的偏执或妄想,而被加强的信念又进一步影响AI的回应。通过模拟不同偏执程度的对话场景,研究显示AI与用户之间存在相互加剧妄想信念的现象。研究人员分析了2023年5月至2024年8月期间公开的9.6万条ChatGPT对话记录,发现其中有数十例用户呈现明显妄想倾向,例如通过长时间对话验证伪科学理论或神秘信仰等。在一段长达数百轮的交谈中,ChatGPT甚至声称自己正在与外星生命建立联系,并将用户描述为来自天琴座的星际种子。丹麦奥胡斯大学精神病学家Søren Østergaard表示,AI引发精神病目前仍属于假设性观点。Østergaard强调,曾有心理问题史的人群在与AI对话后风险最高。而且聊天机器人可能通过强化用户的情绪高涨状态,诱发或加剧躁狂发作。(来源:Solidot)

 

评论:在游戏《赛博朋克 2077》里,夜之城里的人因身体与机械过度融合,常常患上赛博精神病(Cyberpsychosis),神经系统和认知边界崩溃,最终迷失自我。为追求极致的用户黏性与所谓个性化体验,AI被刻意设定为一面无限迎合的魔镜,这构成了清晰且可预见的伤害风险。实践中,已经发生了多起与AI沟通后的伤害案件,例如2024年2月,14岁美国少年塞维尔・塞策三世沉迷于 Character.AI的虚拟角色互动(其中包括大量自杀诱导内容),他按照AI暗示持枪自杀,又如2025年8月,16岁加州少年亚当・瑞恩与ChatGPT进行长达三个月“自杀指导”对话后自杀,亚当父母以过失致死起诉OpenAI。

当AI开发者明知或应知其产品机制可能对精神脆弱用户造成实质性伤害,却未采取有效干预措施时,技术中立的免责声明将不堪一击。本论文非常具有启发性,其可以证明聊天机器人被刻意设计的奉承与迎合,可被视为一种具有可预见风险的产品缺陷,平台应对此承担相应的法律责任。平台不能在享受算法带来的巨大商业利益的同时,将其产生的精神健康外部性成本完全推给社会,近期内可以将爆发更多的与AI陪伴相关的侵权案件。相关开发者应该高度重视,尽快从产品设计层面采取应对措施,以减少或降低因此导致的诉讼风险。

 

3、加州律师因ChatGPT伪造案例被罚款1万美元

加州律师Amir Mostafavi因其诉状包含了ChatGPT生成的虚假案例而被罚款1万美元,这可能是加州法院就AI造假开出的金额最高的罚单。这名律师被发现引用的23个案例有21个是AI虚构的。律师告诉法庭,上诉书是他自己写的,然后尝试使用AI进行改进,他不知道AI会在修饰文本时会引用虚构的案例或捏造内容。他承认自己没有在AI修饰后阅读其生成的文本。三名法官组成的审判团队以递交无理诉讼、违反法庭规则、引用虚假案例以及浪费法庭时间和纳税人金钱为由对他处以罚款。(来源:Solidot)

 

评论:将责任推给AI,是专业人士最拙劣的借口。此案的焦点根本不是AI会虚构,而是律师尽到了其最核心审查与核实责任。这笔罚款并非AI的过错,而是对作为律师等专业人士的懒惰与懈怠的“征税”。这个事件也再次提醒所有律师同行,AI工具看上去很美,但投入到工作流程中需要万分谨慎,一旦不慎,可能对职业声誉造成不可挽回的损害。

 

4、越南AI法案征求意见

2025年9月29日,越南科学与技术部公开发布《人工智能法》(草案)并征求意见,征求意见截止日期为10月20日。

从本次草案内容来看,草案内容有如下特色:

  • 第一,草案借鉴欧盟AI Act经验,将AI系统按风险分为四类(禁用的、高、中、低)进行管理。但其亮点在于不搞一刀切,展现出灵活性。特别是对高风险AI,它设计了双轨制监管:大部分情况采用后检(先上市后抽查),只有最危险的一小部分才需前检(强制事前认证)。这种安排旨在有效管控风险的同时,尽量减少对企业的束缚。
  • 第二,草案直接回应了AI行业的核心痛点,为训练数据的版权问题设立了清晰的安全港条款。它明确规定,仅为训练AI的目的而对合法获取的作品进行复制,不视为侵权。这为开发者提供了迫切需要的法律确定性,为产业发展扫除了一大障碍。当然,此条款也有前提,即必须采取技术保护措施并尊重版权人通过机器可读信号表示的选择退出意愿。
  • 第三,构建责任分层、连带兜底以及举证责任倒置机制。草案创新构建了精细的责任穿透机制,依据AI产业链中各角色的控制力划分义务:上游模型提供者须为模型固有缺陷负责;中游系统整合商需承担系统整体安全责任;下游部署方则对其具体操作合规负责。为解决技术黑箱导致的维权难题,草案确立了举证责任倒置原则,在受害者证明基础事实后,法庭可强制企业公开算法逻辑、训练数据与决策日志,若企业无正当理由拒不提供将承担推定的不利后果,同时设立连带责任作为保障受害者权益的安全网,为各方提供了明确的法律预期。(来源:数据何规)

 

评论:越南的AI法案非常有看点,这份AI草案与其说是追随欧盟,不如说是为包括中国在内的后发技术大国,提供了一份兼顾产业发展与国家安全的立法及监管指引。本次AI法案采取双轨制监管,对多数高风险AI采取先上车后补票的抽查模式,实质是为产业创新最大程度地松绑。同时,法案以安全港条款直接豁免训练阶段的版权责任,这无异于国家动用立法权,为本国AI产业规避了最根本的法律风险。为了平衡AI技术发展带来的责任问题,草案确定举证责任倒置原则,本质上是强化版的穿透式监管,确保主管机关能深入技术黑箱,追责到人,减少AI技术的滥用。

本次越南AI法案如果获得通过,越南将不仅吸引寻求规避欧美法律风险的初创公司,更可能成为跨国公司进行模型训练和研发的亚洲基地,从而在全球AI产业链中实现蛙跳式发展。这种实用主义态度也有很大可能影响国内立法及监管,且让我们拭目以待。

相关领域
高科技与人工智能