专业团队

天元汇聚各领域精英律师,拥有200余名合伙人,800余名律师及专业人员,凭借深厚的执业经验和项目经验,为客户提供全方位、跨区域、综合性、一站式的法律服务和最佳商业解决方案。

专业领域

天元凭借30年法律实践经验和不断创新的执业能力,业务覆盖中国律师主要执业领域和新兴领域,并在诸多领域保持中国顶尖律师水准和跨团队综合服务能力,近年来连续承办了诸多开创先河的交易和极具行业影响力的项目和案件。

洞察资讯

天元律师紧跟行业发展趋势,聚焦法律热点话题,凭借独到视角和市场洞察力,帮助客户了解法律最新变化,用专业的观察、分析与见解助力客户做出更为明智的商业选择与决策。

关于天元

作为国内具有长远历史和深厚文化的领先律所,天元始终以法律服务为根本,不断探索和创新,30年来与中国经济同向前行,在中国15个经济活跃城市设立办公室,在业内享有盛誉。

AI法律评论丨反不正当竞争法修订对AI企业的合规影响
日期:2025年07月04日

1、反不正当竞争法修订表决通过

2025年6月27日,据新华社消息,十四届全国人大常委会第十六次会议表决通过新修订的反不正当竞争法,自2025年10月15日起施行。

新修订的反不正当竞争法包括总则、不正当竞争行为、对涉嫌不正当竞争行为的调查、法律责任、附则五章。这部法律规定,国家健全完善反不正当竞争规则制度,加强反不正当竞争执法司法,维护市场竞争秩序,健全统一、开放、竞争、有序的市场体系。

现行反不正当竞争法于1993年公布施行,并于2017年、2019年两次修改,法律框架和主要制度总体可行。随着经济快速发展,法律在实施中也面临一些新问题,迫切需要进行有针对性的修改完善。2024年12月,十四届全国人大常委会曾对反不正当竞争法修订草案进行首次审议。

6月23日,全国人大常委会法制工作委员会举行发言人记者会。全国人大常委会法工委发言人黄海华介绍,根据各方面意见,修订草案二次审议稿贯彻党中央关于综合整治“内卷式”竞争的精神,增加关于公平竞争审查制度的规定,修改完善治理平台“内卷式”竞争方面的规定。

修订草案二次审议稿明确,平台经营者不得强制或者变相强制平台内经营者按照其定价规则,以低于成本的价格销售商品,扰乱市场竞争秩序。二次审议稿还完善平台经营者处置平台内经营者不正当竞争行为的义务,规定平台经营者建立不正当竞争举报投诉和纠纷处置机制,发现平台内经营者实施不正当竞争行为的,应当采取必要的处置措施,保存有关记录,并按规定向监督检查部门报告。

此外,修订草案二次审议稿对于将他人商标作为字号使用以及将他人商品名称、企业名称设置为搜索关键词等行为,构成混淆类不正当竞争行为的标准,予以进一步明确。(来源:界面新闻)

 

评论:《反不正当竞争法》的立法对数字经济有直接且显著的影响。本次法律修订并非简单的条款修补,而是对数字经济时代竞争秩序的重构,显著强化了对数字经济领域新情况、新趋势、新要求的规制,可能对AI企业产生重大影响。AI产品的快速迭代和广泛应用,可能在数据获取、算法决策、内容生成、市场推广等多个关键环节,不经意间触及不正当竞争的法律红线。因此,理解并适应新法的变化,对于AI企业的稳健发展至关重要,我们理解AI企业应该重点关注如下几个方面的变化:

(1)AI训练数据获取

新法第十三条明确规定,经营者不得以欺诈、胁迫、避开或者破坏技术管理措施等不正当方式,获取、使用其他经营者合法持有的数据,损害其他经营者的合法权益,扰乱市场竞争秩序。这一规定将数据权益保护提升到了新的高度,直接针对AI企业常用的数据抓取行为。这意味着,如果传统的“爬虫”技术是通过规避或破坏网站的反爬机制来实现的,将直接构成违法行为。

AI企业需要重新评估其数据获取策略,从源头确保数据的合规性,避免因数据“原罪”导致后续AI产品和服务的合规风险。这可能迫使AI企业更多地转向合法授权、合作共享或自建数据,而非依赖大规模、无差别的网络爬取。如果AI模型通过抓取和整合,直接替代了原数据提供者的市场,也会被认定为不正当竞争。如AI搜索平台如果未经授权大量抓取并展示其他媒体的原创内容,导致用户不再访问该媒体,就可能构成实质性替代。

为了帮助AI企业系统性地识别和评估其数据获取行为的合规风险,我们准备了一个AI企业数据获取合规风险评估表:

(2)算法滥用问题

新法第十三条明确规定,经营者不得利用数据和算法、技术、平台规则等实施有关不正当竞争行为。具体禁止行为包括:平台经营者不得强制或者变相强制平台内经营者以低于成本的价格销售商品。此外,经营者不得滥用平台规则,直接或者指使他人对其他经营者实施虚假交易、虚假评价或者恶意退货等行为。 

AI算法在价格设定、流量分配、用户推荐等方面具有强大影响力,新法直接将算法滥用纳入规制,意味着AI企业在设计和部署算法时,必须考虑其对市场公平竞争的影响。AI的核心在于算法和数据,因此AI企业几乎所有涉及市场竞争的行为都可能被此条款覆盖。AI企业需要进行算法合规审查,确保算法模型在定价、推荐、流量分配等方面不产生歧视性、排他性或诱导性结果,特别是避免导致“二选一”或“大数据杀熟”等行为。例如,AI定价系统若基于用户画像对特定用户群体实施价格歧视,或AI推荐系统过度偏向自家产品而压制竞品,都可能构成算法滥用。

以下提供AI企业算法合规自查清单,帮助企业内部自查和评估其算法在设计、开发和应用过程中是否存在潜在的不正当竞争风险:

(3)技术干扰等问题

新法第十三条细化了网络不正当竞争行为的定义,明确禁止经营者利用网络从事生产经营活动时,未经其他经营者同意插入链接、强制进行目标跳转;误导、欺骗、强迫用户修改、关闭、卸载其他经营者合法提供的网络产品或服务;恶意对其他经营者合法提供的网络产品或服务实施不兼容;以及其他妨碍、破坏其他经营者合法提供的网络产品或服务正常运行的行为。 

虽然作为互联网专条,前述规定在实践中较为常见,本次修订进行了细化。AI作为技术工具,可能被用于自动化相关不正当行为,扩大其影响范围和效率。例如,AI插件或程序被设计用于强制用户跳转到特定页面,或者通过算法识别并恶意阻断竞争对手的服务。因此,AI企业在开发和推广其产品时,必须确保其技术手段不侵犯其他经营者的网络产品或服务的正常运行权。这要求AI企业在产品设计初期就融入合规考量,进行技术合规性审查,确保技术创新在法律框架内进行。

 

(4)内卷竞争问题

新法第十四条增加了关于治理内卷式竞争的规定,特别是禁止平台强制商家低价销售、滥用数据权益及恶意交易。此外,新法第二十一条明确了平台经营者的责任,要求其在平台服务协议和交易规则中明确平台内公平竞争规则,建立不正当竞争举报投诉和纠纷处置机制,并及时依法采取必要的处置措施,保存记录,并按规定向监管部门报告。

AI作为实现这些策略的底层技术,将成为监管的重点。许多平台型AI企业,其商业模式往往依赖于算法优化来实现市场份额的快速增长,这可能涉及价格战或流量倾斜。因此,平台型AI企业承担的合规责任将更重。AI企业需要审视其算法驱动的商业策略,特别是涉及价格竞争、补贴机制、流量分配等环节,确保其不构成强制性或破坏性的内卷行为。对于AI平台而言,这意味着不仅要管好自己,还要管好平台内的AI应用或商家,确保其行为符合公平竞争原则,否则可能将承担连带责任。这推动AI平台从单纯的技术提供者向市场秩序维护者转变,要求其在追求商业利益的同时,承担起维护市场公平竞争秩序的社会责任。

 

(5)混淆行为

新法第七条明确将擅自使用他人有一定影响的“新媒体账号名称、应用程序名称或者图标”以及将他人注册商标、未注册的驰名商标等设置为“搜索关键词”引人误认的行为,认定为混淆行为 。随着AI产品形态的多样化(如AI应用、AI助手、AI生成内容平台),其名称、图标、在应用商店或搜索引擎中的关键词设置,都可能构成混淆。  

AI产品通常以应用、软件或在线服务形式存在,其名称、图标和搜索引擎优化(SEO)策略是获取用户的重要手段。因此,AI企业在产品命名、UI/UX设计以及数字营销(如搜索引擎广告、应用商店关键词优化)时,必须进行严格的商标和商号检索,并避免使用与竞争对手相似的标识或关键词,以免构成“傍名牌”或恶意搭便车。这要求AI企业在产品上线前进行全面的知识产权和竞争法合规审查,确保其品牌和市场推广活动不会误导消费者或损害其他经营者的合法权益。

 

(6)虚假宣传

新法第九条扩大了虚假宣传的误导对象,从消费者扩展到“消费者和其他经营者”,并明确禁止通过组织虚假交易、虚假评价等方式,帮助其他经营者进行虚假或引人误解的商业宣传 。AI技术可以高效生成内容(如AI文案、AI图片、AI视频),也可以自动化“刷单炒信”和“虚假评价”。新法对这些行为的明确禁止,对AI内容生成和AI营销工具提出了严格的合规要求。  

AI企业在提供AI内容生成服务时,必须确保其生成内容的真实性、准确性,并明确告知用户AI生成属性,避免误导。同时,AI企业不得开发或提供用于“刷单炒信”或生成“虚假评价”的AI工具,否则将承担帮助他人实施不正当竞争行为的法律责任。例如,利用AI技术批量生成虚假的用户评论或交易记录,以提升产品销量或好评率,将直接构成不正当进行行为。这要求AI企业在技术开发和商业应用中,遵循诚信和真实性原则,确保AI技术被用于促进而非损害市场公平。

 

(7)商业秘密保护

新法第十条细化了侵犯商业秘密的行为类型,包括以盗窃、贿赂、欺诈、胁迫、电子侵入或其他不正当手段获取,以及披露、使用或允许他人使用通过上述手段获取的商业秘密 。对于商业秘密的认定,新法明确了举证责任,权利人只需提供初步证据表明涉嫌侵权人有渠道或机会获取商业秘密,且其使用的信息与该商业秘密实质上相同,或商业秘密已被披露、使用或有被披露、使用的风险 。  

AI模型、训练数据集、算法代码、核心技术参数等是AI企业的核心竞争力,也是其最重要的商业秘密。新法对商业秘密保护的强化,特别是降低了权利人的举证难度,对AI企业保护自身核心资产至关重要。AI企业的核心资产(如模型架构、训练数据、专有算法)极易被不正当获取或复制,例如通过员工跳槽、技术渗透等方式。因此,AI企业应建立更严格的商业秘密保护体系,包括物理和电子安全措施、严格的保密协议(与员工、合作伙伴)、数据访问权限管理、离职员工管理等。在面临侵权时,新法降低的举证难度将有利于AI企业更快地维权,例如,只要能证明对方有接触商业秘密的途径且其产品与己方商业秘密实质相同,即可初步认定侵权。这要求AI企业将商业秘密保护视为与技术研发同等重要的战略任务,并投入足够的资源进行防范。

 

以下提供AI企业商业秘密保护措施清单,可以帮助AI企业系统性地防范商业秘密泄露和侵权风险:

 

2、美参议院以99:1否决特朗普法案中的AI监管禁令

由共和党主导的美国参议院周二以99:1的压倒性票数,从特朗普总统的大规模减税与支出法案中删除了一项禁止各州监管人工智能的十年联邦禁令。

参议员们通过采纳共和党参议员玛莎·布莱克本(Marsha Blackburn)提出的修正案,从法案中移除了这项限制条款。此次表决发生在被称为“投票马拉松”的连续审议环节中,立法者们对这项共和党力推的法案提出了大量修正案。(来源:SciTechDaily)

 

评论:美国参议院以99:1这种几乎全票通过的投票结果极为罕见,通常只发生在程序性或象征性议题上,AI监管禁令本次也算是创造了历史。如此悬殊的票数表明,无论是民主党还是共和党,绝大多数参议员都认同不应由联邦层面强行禁止各州对AI进行监管。在AI这种日新月异的技术领域,立法者面临着“规制者困境”:法律的制定速度远远跟不上技术迭代的速度。在这种情况下,过早、过严的立法很可能会扼杀创新,或因对技术的错误理解而导致法律迅速过时。因此,联邦层面算是已经达成共识,选择“等待和观察”,暂时不进行全面的、指令性的立法,并将探索权下放给各州,这本身就是一种极其鲜明的监管策略。它传达出的信号是:在联邦层面,我们将优先保障技术的发展和产业的竞争力,避免用法律为尚在襁褓中的AI套上枷锁。

当然,需要注意的是,否决一项“禁止监管”的条款,并不等同于不监管或完全放任。相反,它更像是为未来更细致、更灵活的监管模式打开了大门。这其中也包含了对权力制衡的考量,避免联邦政府对新兴技术领域拥有过大的单一控制权。实际上,参议院投票的同时,德州人工智能治理法案已经被签署生效。

此次参议院的投票结果,清晰地向外界传达了美国在AI监管上的基本立场:既要鼓励创新,也要注重风险防范,但更重要的是,这种监管将是开放的、灵活的,并倾向于分散化和多层次的治理。对于全球AI产业而言,这无疑是一个积极的信号,预示着一个相对宽松和鼓励创新的政策环境。

 

3、德国要求苹果和Google下架DeepSeek

德国联邦数据保护与信息自由专员Meike Kamp周五表示,她已正式要求苹果和 Google将中国AI公司DeepSeek APP从德国地区的App Store 和 Google Play下架。原因是该公司未能证明其数据处理符合欧盟标准,涉嫌将德国用户的个人数据非法转移至中国。根据DeepSeek的隐私政策,该应用会将用户的AI请求、上传文件等多种个人信息储存在中国境内的服务器上。德国监管机构今年早些时候要求DeepSeek满足欧盟关于数据跨境传输的合规要求,或主动下架应用。但 DeepSeek并未作出回应,因此Kamp启动了正式下架程序。(来源:Solidot)

 

评论:这则新闻并非孤立的技术或商业事件,实际上反映出中国AI企业出海过程中存在的法律风险及问题。将此事件简单归结为地缘政治摩擦是短视的。本次事件的核心,依然是AI企业在数据处理实践中,未能满足GDPR关于“数据跨境传输”这一高风险要求。对于屡次发生的此类事件,国内AI企业应该将数据合规提升至公司最高战略层面,视为与核心技术、市场拓展同等重要的生命线。在操作层面,AI企业应设置有效的行动策略,例如数据本地化优先或构建合法跨境传输框架(签署《标准合同条款》、完成《传输影响评估》(TIA)、采取补充措施等),并应该考虑设立欧盟法律代表与沟通渠道。对于拟长期化发展的AI企业来说,数据合规体系短期看是成本,长期看将是用户的信任、监管的绿灯,以及通往全球市场的的“准入许可证”。

 

4、研究发现消费者对AI产品信任度低

近期,两项研究发现消费者对AI产品信任度低,购买意愿也低。AI对产品推广产生了负面影响,这种影响在高风险产品中尤其显著,低风险产品则不太明显。在其中一项研究中,研究人员将参与者分成两组,每组大约100人。一组阅读突出AI或AI-powered等特性的虚构产品和服务的广告,另一组阅读的广告使用了新技术或配备了尖端技术等术语。相比另一组,阅读带有 AI等关键词广告的参与者报告尝试或购买相关产品和服务的可能性较低。另一项研究由市场研究公司Parks Associates完成,调查规模更大。在接受调查的约4000名美国人中,18%的人表示AI可能会增加购买意愿,24%的人表示不太可能,而58%的人表示AI对他们没有影响。(来源:Solidot)

 

评论:这两项研究的结果,对于AI行业而言,既不意外,也极其重要。它清晰地指出当前AI商业化落地的核心困境:行业热衷于谈论“AI是什么”,而消费者真正关心的是“AI为我带来了什么,以及我需要为此付出什么代价”。这种认知错位,正是信任缺失的根源。

当前AI行业存在诸多问题,例如“AI”标签的过度营销,AI合成导致诈骗随处可见,数据泄露和滥用事件频发,这都加剧了公众对AI可靠性和公平性的疑虑。但消除这种不信任,绝非一日之功,它需要全行业从产品设计、市场沟通到企业伦理层面进行一次系统性的变革。对AI企业而言,应该停止将“AI”作为唯一的、核心的卖点。营销和沟通的焦点必须从“我们用了AI技术”转向“它能为你解决什么具体问题”。同时,在产品设计阶段,AI企业应该引入“可解释性AI”和用户控制机制,赋予用户“知情权”和“干预权”。让用户大致明白AI决策的逻辑,并允许他们对结果进行修正。这种互动过程才是建立信任的良方。在一个健康的行业,成功的AI企业不应是那些技术最先进、模型最复杂的公司,而应该是具有简单、可靠、可信赖的用户价值的公司。

 

 

相关领域
高科技与人工智能