专业团队

天元汇聚各领域精英律师,拥有200余名合伙人,800余名律师及专业人员,凭借深厚的执业经验和项目经验,为客户提供全方位、跨区域、综合性、一站式的法律服务和最佳商业解决方案。

专业领域

天元凭借30年法律实践经验和不断创新的执业能力,业务覆盖中国律师主要执业领域和新兴领域,并在诸多领域保持中国顶尖律师水准和跨团队综合服务能力,近年来连续承办了诸多开创先河的交易和极具行业影响力的项目和案件。

洞察资讯

天元律师紧跟行业发展趋势,聚焦法律热点话题,凭借独到视角和市场洞察力,帮助客户了解法律最新变化,用专业的观察、分析与见解助力客户做出更为明智的商业选择与决策。

关于天元

作为国内具有长远历史和深厚文化的领先律所,天元始终以法律服务为根本,不断探索和创新,30年来与中国经济同向前行,在中国15个经济活跃城市设立办公室,在业内享有盛誉。

AI法律评论丨美国版权局发布AI新指南
日期:2025年05月16日

1、美国版权局发布AI新指南

2025年5月12日,美国版权局发布了备受瞩目的第三版人工智能指南,这也是其最新一版相关指南。该指南聚焦于人工智能与版权的交叉领域。此前,美国版权局的AI指南前两部分主要围绕数字复制品和AI生成的内容展开,建议制定联邦深度伪造法,并明确表示AI生成的内容若要获得版权保护,必须有大量人类的参与。而此次发布的第三版指南,则深入剖析了AI活动构成侵权的情形,尤其是AI训练过程的各个环节。(来源:AIGverse)

评论:本次的人工智能指南聚焦AI工具数据训练侵权的核心问题,特别是版权侵权、合理使用原则的适用以及许可方案。其核心观点如下:

  1. 数据训练存在著作权侵权风险:一是数据收集与整理环节,下载、格式转换、创建子集等行为侵犯版权复制权;二是模型训练过程,将数据集加载到高性能存储、在训练批次中临时展示作品,同样涉及复制权侵权;三是RAG(检索增强生成)技术,将资料复制到检索数据库并在生成时检索使用,构成侵权;四是AI模型输出若复制或高度相似于受版权保护作品,也属侵权行为。
  2. 合理使用是重要抗辩理由。在可能构成侵权的情形下,合理使用是主要辩护理由。版权局依据使用目的和性质、作品性质、使用部分的数量和质量、使用对原作品市场价值的影响这四个要素,分析不同场景下合理使用的适用性。在使用目的和性质方面,在大型多样化数据集上训练基础模型,若用于分析、研究等非替代性目的,通常具有转换性;若针对特定作品训练生成相似输出,转换性较弱,商业性使用(尤其是未支付费用获利)不利于合理使用认定。在使用对原作品市场价值的影响方面,AI输出若能直接替代原作,或生成内容(即使仅风格相似)稀释人类创作作品市场,以及未经许可使用损害AI训练许可市场,均不利于合理使用认定。
  3. 在许可机制方面,版权局认可著作权自愿许可(直接许可和集体许可)模式,认为市场发展已现成功案例,建议政府暂不干预。

本次美国版权局报告对AI企业的合规具有重要的参考价值,AI企业需明确,使用受版权保护数据进行模型训练存在侵权风险。由于合理使用抗辩在司法实践中认定严格,企业需结合具体数据集、训练目的、模型功能和输出控制进行个案分析,目前抗辩空间有限。因此,对AI企业而言,应提前严格审查训练数据来源,杜绝使用盗版、非法抓取或来源不明的数据,建立数据溯源机制。对于生成表达性内容、可能与原作竞争的商业模型,优先选择获得版权许可,而非等待被动应诉。

 

2、OpenAI定制化数据驻留服务覆盖日印新韩

近日,OpenAI为日本、印度、新加坡和韩国的ChatGPT企业版、ChatGPT教育版及API用户推出了数据驻留选项。此举允许符合条件的客户将数据存储在这些国家境内,助力企业遵守当地数据主权法规。API用户可通过创建新项目并选择首选区域启用该功能,而ChatGPT企业版和教育版客户则可设置工作区,实现包括用户对话、提示词及上传文件在内的本地化数据存储。这一举措基于OpenAI现有的数据隐私与安全措施,包括对静态数据采用AES-256加密,对传输中数据使用TLS 1.2+协议。OpenAI同时澄清,除非用户明确选择加入,否则不会使用客户数据来训练其模型。数据驻留功能旨在让客户对其数据拥有更多控制权,同时遵守GDPR和CCPA等全球标准。(来源:Z Potentials)

评论:数据主权法规的主动适配是AI企业全球化运营的关键课题。当前,各国数据本地化立法呈现密集出台态势,如印度2022年实施的《数字个人数据保护法》明确要求,企业需将印度用户的个人数据存储于境内服务器,且跨境传输需通过政府认可的白名单机制;新加坡《个人信息保护法》虽未强制本地化存储,但对数据跨境传输设置严格的告知与同意义务,要求企业证明接收国具备“实质相似”的数据保护水平。这些法规不仅关乎数据存储位置,更涉及数据治理全流程的合规性,如数据访问权限管理、数据主体权利响应等。

OpenAI采取的“区域化存储”策略,为企业提供了可借鉴的合规范本。通过在日、印、新、韩等国部署本地服务器,OpenAI确保用户对话、提示词等数据严格留存于当地司法辖区内,从物理层面规避跨境传输风险。这一策略体现了技术方案与法律要求的深度融合,将合规需求转化为可落地的技术架构,这充分说明数据驻留已从“加分项”逐渐转变为“必需项”。对AI企业而言,要实现全球化发展,需要建立全球合规的动态监测机制,针对不同司法辖区的数据主权要求设计差异化合规方案,既能展现企业对目标市场法律法规的尊重和负责任的态度,也将有助于获得当地监管机构的信任和认可,为后续的市场拓展和业务发展铺平道路。

 

3、《网络安全技术 生成式人工智能服务安全基本要求》等三项生成式人工智能国家标准正式发布

2025年4月25日,GB/T 45654-2025《网络安全技术 生成式人工智能服务安全基本要求》、GB/T 45674-2025《网络安全技术 生成式人工智能数据标注安全规范》、GB/T 45652-2025《网络安全技术 生成式人工智能预训练和优化训练数据安全规范》三项生成式人工智能国家标准正式发布,并将于2025年11月1日正式实施。(来源:全国网安标委)

评论:此次三项生成式人工智能国家标准的发布,是中国在AI监管领域采取“标准化路径”的典型体现。在AI技术高速发展且复杂性极高的当下,监管层深刻意识到,若缺乏统一标准与尺度,市场参与者将陷入认知混乱,承担高昂的合规成本,甚至会出现劣币驱逐良币的不良现象。因此,通过国家标准来统一技术要求和安全基准,成为降低市场不确定性、营造公平竞争环境的关键手段。

国家标准的出台,本质上是对生成式AI技术合理性与发展必要性的认可与接纳。标准并非创新的桎梏,而是为创新搭建起相对安全且可预期的框架。这三项标准的发布,为AI企业在网络安全、数据处理等关键环节,提供了清晰明确的参照系。企业得以依据这些标准设计产品、构建系统、管理数据,有效降低盲目探索的风险,以及应对不同监管口径的成本。

需要明确的是,标准划定的是底线和边界,而非创新的天花板。AI企业应当在深入理解并严格遵守标准的基础上,积极探索新的技术路径、应用场景和商业模式。唯有合规的创新,才是可持续的创新。

 

4、研究发现使用AI可能会损害职业声誉

根据杜克大学研究人员在PNAS期刊上发表的一项研究,使用AI是一把双刃剑——生成式AI可能会提高部分人的生产力,但也可能会损害他们的职业声誉。研究发现,在工作中使用ChatGPT、Claude和Gemini等AI工具的员工会面临同事和上司对其能力和积极性的负面评价。研究团队对逾4400名参与者展开了四项实验,调查对使用AI工具的用户的预期和实际评价。研究揭示了人们对使用AI帮助完成工作的人存在一致的偏见。针对AI用户的社会污名并不局限于特定人群。(来源:Solidot)

评论:AI技术可以是强大的生产力工具,但依然还未被整个社会广泛接纳,此前也曾有调查显示多数美国公众不相信AI能改善他们的生活,其根本的原因是社会公众对AI缺乏信任。究其原因,这里面既有技术黑箱化与不可解释性,也有人类对技术失控的恐惧,还有负面新闻的放大效应。当技术专家热议大模型的“涌现能力”时,社会公众可能还在为肖像合成的诈骗感到不安。这种认知断层导致当前AI被两种极端化叙事裹挟:要么被神化为万能解决方案,要么被妖魔化为就业杀手。而信任的建立,却还需要漫长的过程,希望这只是技术发展的“阵痛”,而非永久的“鸿沟”。

 

相关领域
高科技与人工智能