专业团队

天元汇聚各领域精英律师,拥有200余名合伙人,800余名律师及专业人员,凭借深厚的执业经验和项目经验,为客户提供全方位、跨区域、综合性、一站式的法律服务和最佳商业解决方案。

专业领域

天元凭借30年法律实践经验和不断创新的执业能力,业务覆盖中国律师主要执业领域和新兴领域,并在诸多领域保持中国顶尖律师水准和跨团队综合服务能力,近年来连续承办了诸多开创先河的交易和极具行业影响力的项目和案件。

洞察资讯

天元律师紧跟行业发展趋势,聚焦法律热点话题,凭借独到视角和市场洞察力,帮助客户了解法律最新变化,用专业的观察、分析与见解助力客户做出更为明智的商业选择与决策。

关于天元

作为国内具有长远历史和深厚文化的领先律所,天元始终以法律服务为根本,不断探索和创新,30年来与中国经济同向前行,在中国15个经济活跃城市设立办公室,在业内享有盛誉。

AI法律评论丨国家网信办约谈英伟达公司
日期:2025年08月01日

1、国家网信办约谈英伟达公司

网信中国7月31日消息,近日,英伟达算力芯片被曝出存在严重安全问题。此前,美议员呼吁要求美出口的先进芯片必须配备“追踪定位”功能。美人工智能领域专家透露,英伟达算力芯片“追踪定位”“远程关闭”技术已成熟。为维护中国用户网络安全、数据安全,依据《网络安全法》《数据安全法》《个人信息保护法》有关规定,国家互联网信息办公室于2025年7月31日约谈了英伟达公司,要求英伟达公司就对华销售的H20算力芯片漏洞后门安全风险问题进行说明并提交相关证明材料。(来源:新京报)

 

评论:本次约谈的直接原因是英伟达H20芯片被指存在“追踪定位”和“远程关闭”等严重安全后门。根据《网络安全法》《数据安全法》等法律规定,约谈不属于行政调查或处罚程序,而是一种带有调查、提醒、警告性质的非强制性执法措施,此次将要求英伟达提供证明材料,英伟达有义务证明其本身符合我国法律要求。从此前网信办对美光的网络安全审查事件来看,如果英伟达未能及时有效的提供相应材料,可能也会面临网络安全审查,国内关键信息基础设施的运营者可能将停止采购英伟达产品。对英伟达而言,这是典型的两难困境:若遵守美国法规(虽然目前美国并没有强制性法规要求)嵌入此类功能,则可能彻底失去庞大的中国市场;反之则可能面临美国政府的严厉制裁。而对产业而言,此事件将进一步刺激并加速中国本土算力芯片的研发与替代进程,倒逼国内AI产业链下定决心走向全面自主可控。对此事件,我们也将持续保持关注。

 

2、Meta公开拒签欧盟新规

欧盟《人工智能法案》中涉及通用人工智能(AI)模型的关键条款将于8月2日正式生效,在此背景下,美国科技巨头针对是否签署《通用人工智能行为准则》这一问题已形成明显对立立场。

截至7月23日,法国人工智能企业Mistral、美国公司OpenAI和Anthropic均已承诺签署该准则,微软也表示极有可能加入签署行列。然而,Meta公司却采取了截然相反的立场,明确拒绝签署。

Meta全球事务主管卡普兰(Joel Kaplan)在一份声明中表示,此类规则将抑制技术创新,并警告称“欧洲在人工智能领域走上了错误的道路”。

该准则由欧盟委员会7月10日发布,为AI企业提供了遵守法案中部分规定的实践路径,但不具法律强制性。欧盟委员会发言人雷涅(Thomas Regnier)称,无论是否签署该准则,所有通用AI模型提供商都必须遵守法案的规定,且未签署的企业可能面临更频繁的监管评估。

当前,欧盟AI法案面临严峻的行业压力。本月初,超过45家欧洲最具影响力的企业呼吁欧盟委员会至少暂停两年执行AI法案中最严格的要求。(来源:第一财经)

 

评论:欧盟《人工智能法案》对通用AI模型(尤其是能力强大的系统性风险模型)提出了严格的透明度、文档记录、风险评估等要求。这套监管逻辑对OpenAI这类闭源模型相对友好,但对Meta的开源生态却是巨大的负担。因为开源模型一旦发布,其传播、修改和应用便难以追踪,要求Meta为整个下游生态的风险背锅,这在商业上和法理上都存在很大争议。Meta通过公开拒绝签署不具强制性的《行为准则》,向欧盟传递了一个强硬信号,意图在强制性的《法案》全面落地前,联合行业力量,逼迫监管者重新考虑对开源模型的处理方式,争取更有利的监管豁免或条款。而Meta的公开挑战也让欧盟陷入两难,一方面欧盟立法机构的权威不容易挑战,而另一方面欧洲也确实面临着AI创新乏力的现状。究竟是监管优先还是创新优先,美国等领先国家已经给出了答案,欧盟却仍在左右摇摆。至少短期来看,这对欧洲AI企业来说,不会是一个好消息。

 

3、FDA的AI工具被发现捏造研究

FDA几周前宣布使用名为Elsa的AI工具去加快药品和医疗设备的审批速度。内部人士称Elsa可用于生成会议记录和摘要或创建电子邮件和公报模板,但它也会捏造不存在的研究——也就是所谓的“幻觉”。FDA内部人士称,幻觉让Elsa变得不可靠,无法用于重要工作。一位工作人员说,任何你没有时间仔细核查的东西都是不可靠的,AI会很自信的产生幻觉。另一名工作人员说,AI本应该帮助节省时间,但我浪费了很多额外时间去检查虚假或歪曲的研究。工作人员表示目前Elsa无法帮助加快药品和医疗设备的审批,仍然需要科学家进行评估,以确定药品和医疗设备是否安全有效。(来源:Solidot)

 

评论:AI工具极大的丰富了人们的创造力,但其广泛应用的同时也让整个社会的知识及学术体系变得更加不可靠。目前,大型语言模型可以高效完成约80%的起草、摘要等辅助性工作,但验证其准确性、确保其可靠性的最后20%,仍然需要人类专家投入巨大的心力。很多时候,这最后一步的验证成本,远高于AI节省的初始成本。讽刺的是,这次事件却是发生在全球最权威的药品监管机构FDA身上。我们不仅想问,当监管者自身都难以驾驭AI的不可靠性时,又要如何为全社会的AI应用制定出清晰、可行的规则?

 

4、xAI用200多名员工人脸数据训练Grok

美国《商业内幕》曝光了埃隆・马斯克(Elon Musk)旗下xAI的一个内部项目。该项目要求员工录制自身面部表情以训练AI,帮助Grok理解人类的情绪和面部表情,这引起了员工的担忧。今年4月,超过200名xAI员工参与了一个名为“Skippy”的内部项目。该项目要求他们录制自己的视频,帮助训练AI模型解读人类情绪。根据《商业内幕》查阅的内部文件和协作平台Slack上的消息显示,该项目让许多员工感到不安。一些员工对其肖像的潜在使用途径表示担忧,还有人完全拒绝参与。(来源:数字法学评论)

 

评论:人脸数据等生物信息属于敏感个人信息,将该等敏感个人信息用于AI训练应该慎之又慎。xAI的这一行为将公司置于风险雷区,埋下了重大的诉讼风险。在劳动关系中,雇主与员工之间存在天然的权力不平等。即便xAI声称项目是自愿参与,员工也很可能因担心对职业生涯产生负面影响(如影响绩效评估、晋升机会等)而感到有压力,从而做出并非完全自由的同意。一旦有员工提起诉讼,xAI很难证明其获得的同意是“自由、具体、知情且明确的”,这将使其数据处理行为的合法性基础不再存在。特别是,当一名参与项目的员工离职时,他完全有权要求xAI删除其所有的个人数据。然而,但若该数据已融入模型训练的海量数据集,技术上几乎无法精准剥离单个个体的信息。这意味着xAI一旦使用员工人脸数据完成训练,即便员工后续要求删除,企业也可能因技术限制无法履行义务,从而陷入“合规不可能”的僵局。

对企业而言,这一事件揭示了AI研发中合规前置的重要性。相比事后应对诉讼,在数据收集阶段就建立“最小必要”“目的限制”等合规框架,例如采用合成数据替代真实人脸信息,或通过技术手段实现数据匿名化处理,既能规避法律风险,也能避免因员工信任危机影响团队稳定性。

 


 

 

 

 

 

 

相关领域
高科技与人工智能