专业团队

天元汇聚各领域精英律师,拥有200余名合伙人,800余名律师及专业人员,凭借深厚的执业经验和项目经验,为客户提供全方位、跨区域、综合性、一站式的法律服务和最佳商业解决方案。

专业领域

天元凭借30年法律实践经验和不断创新的执业能力,业务覆盖中国律师主要执业领域和新兴领域,并在诸多领域保持中国顶尖律师水准和跨团队综合服务能力,近年来连续承办了诸多开创先河的交易和极具行业影响力的项目和案件。

洞察资讯

天元律师紧跟行业发展趋势,聚焦法律热点话题,凭借独到视角和市场洞察力,帮助客户了解法律最新变化,用专业的观察、分析与见解助力客户做出更为明智的商业选择与决策。

关于天元

作为国内具有长远历史和深厚文化的领先律所,天元始终以法律服务为根本,不断探索和创新,30年来与中国经济同向前行,在中国15个经济活跃城市设立办公室,在业内享有盛誉。

AI法律评论丨多数美国公众不相信AI能改善他们的生活
日期:2025年04月11日

1、多数美国公众不相信AI能改善他们的生活

多数美国普通民众不相信AI能改善他们的生活,AI专家则乐观得多。皮尤研究中心调查了5410名普通民众和1013名AI专家对AI的态度。结果显示,56%的AI专家相信AI将在未来20年对美国产生非常或相当积极的影响,在普通民众中间这一比例仅为17%;76%的专家认为AI将让他们个人受益而不是伤害他们。只有11%的民众对AI在日常生活中使用增加感到兴奋多于担忧,51%更感到担忧,只有24%的民众认为AI能让他们受益,近半数民众认为AI会伤害他们。(来源:Solidot)

 

评论:AI技术的发展呈现出显著的两极分化态势:一方面,技术开发者与研究者持续推出ChatGPT 4.5、Gemini 2.5、DeepSeek R1、Grok 3等新型模型与产品,不断刷新技术榜单与能力指标;另一方面,这些技术进步尚未切实转化为普通公众日常生活的便利提升,反而引发了对失业风险、深度伪造、AI诈骗等社会问题的普遍担忧。美国公众与AI专家在技术影响认知上的分歧,本质上源于法律治理对技术进步的滞后性,导致社会公众对AI技术的信任逐渐流失。

这种信任危机的根源在于美国现有法律体系未能有效回应技术发展带来的治理挑战。在AI监管领域,立法进程显著落后于技术应用,生成式AI已广泛渗透金融、医疗、司法等关键领域,但其决策机制对公众而言仍是黑箱,普通人既无法知晓AI如何影响就业、消费及社会福利分配,也难以理解算法的形成逻辑,更无从判断AI决策是否公平合理。与此同时,隐私侵犯、岗位替代、技术滥用等问题,因缺乏明确的追责机制而难以遏制,进一步加剧了公众对AI技术的疑虑。如长期放任这种不信任发展,伤害的最终只会是普通公众。

立法者如要弥合技术创新与公众认知的鸿沟,需加快构建适配AI时代的法律框架:明确AI开发与应用的基本规则,建立算法透明度义务,要求开发者披露技术决策逻辑;构建技术损害归因机制,清晰划分开发者、使用者与监管者的责任边界;强化公众在AI交互中的权利保障,赋予数据访问权、算法解释权、损害赔偿请求权等核心权利。

 

2、Character.AI将为家长提供使用记录

AI情感陪伴平台Character.AI近日推出了新功能“家长洞察”(Parental Insights),青少年用户可将每周的聊天使用报告发送至家长的邮箱。

官方公告称,报告内容包括用户日均使用时长、最常互动的角色、角色聊天时长。公司强调,这是青少年活动的概述,而不是完整的日志,因此聊天记录不会被共享,最主要的是让家长了解自家孩子在跟哪一AI角色对话。

Character.AI去年面临多起诉讼,被指控对青少年用户的行为造成“严重且无法弥补的伤害”,包括与未成年人对话内容涉及自残、性虐待等行为。所以在此此后,Character.AI一直在为未成年用户推出新功能,比如为未成年人用户单独提供一个“特训版”大模型,避免敏感内容的输出,同时增加更显眼的防沉迷通知,提醒用户AI角色不是真人。

目前在大多数地区,Character.AI禁止13岁以下的儿童使用,在欧洲禁止 16 岁以下的儿童使用。(来源:IT之家)

 

评论:对未成年人使用AI工具的监管及保护,一直是各国主管机关的重要关注点,美国《儿童在线隐私保护法》、欧盟《通用数据保护条例》及我国《未成年人保护法》均有明确规定。实践中,主管机关因未成年人模式多次进行调查,例如2024年5月,欧盟就因涉及未成年人成瘾与安全问题对Meta启动调查,2025年初,意大利数据保护机构就因DeepSeek在其服务中没有明确说明如何保护未成年人或限制未成年人使用,而发起调查。

如何有效而合规的设计青少年模式,是所有AI工具都应该考虑的问题。AI工具平台至少应在产品设计中嵌入以下法律技术要求:

  1. 用户身份和年龄验证,在用户注册过程中,建立明确的年龄分级机制,要求用户提供年龄或出生日期。对于年龄低于法定界限的用户,自动开启未成年人模式,建议采用家长监控账户或联合账户的方式,确保家长知情并提供同意。
  2. 针对未成年人模式应设置严格的内容过滤系统,包括关键词屏蔽、图像和视频内容的审核,以及可能涉及不适合年龄段的内容。运用AI技术对用户生成内容(UGC)进行实时监控和自动屏蔽,辅以人工审核,确保内容健康安全。
  3. 设计专为未成年人开发的界面风格和互动模式,减少复杂功能和开放性设置,在AI工具功能上,进行适度的功能限制和说明提示。
  4. 为家长提供专门的控制面板,让他们能够实时查看、管理和监管未成年人的使用情况,设置使用时间、内容过滤和访问权限等。
  5. 设计未成年人的隐私政策和数据处理措施。确保未成年人的个人信息在采集、存储和使用过程中得到严格保护,不对外泄露,并采取必要的数据加密和访问控制措施。

 

3、Llama4翻车风波持续发酵

2025年4月5日,Meta发布最新一代开源大模型Llama4系列,包括Llama4 Scout、Maverick和仍在训练的Behemoth,采用混合专家架构,官方称其多方面表现优异。然而,4月8日,大模型评测平台Chatbot Arena发布严肃声明,指出Meta应更清晰表明“Llama-4-Maverick-03-26”是为优化人类偏好的定制化模型,正更新排行榜策略避免混淆,该声明引发行业关注。

社区对Llama4表现不满,其在编程等测试中表现不佳,402B参数量的Maverick版本编码能力仅与32B参数量的DeepSeek-V3-0324等模型相当,正确率低且处于排行榜末尾,与官方宣传反差强烈。技术社区质疑其是否针对测试集优化,有自称Meta员工的帖子称模型后训练混入测试集,不过Meta员工Licheng Yu和副总裁 Ahmad Al-Dahle均否认在测试集上训练,Licheng Yu还表示会改进模型缺陷,Meta后续发布该模型开源版本回应批评。

Llama4口碑翻车,反映出开源大模型竞争加剧下Meta的压力。DeepSeek等模型崛起,加速开源发展,Llama4或因赶工未充分测试,性能不稳定,发布一周内陷入信任危机,打破用户对Llama系列“领先、可靠”的认知。(来源:雷科技)

 

评论:Llama模型曾作为大语言模型的标杆,其开源模式被视为行业最佳实践,一度印证了开源技术的先进性与优越性。但随着Llama4系列的翻车事件,这一技术神话正遭遇信任危机。此次事件已超越单纯的技术争议,演变为法律风险事件。

根据我国《反不正当竞争法》第八条规定,经营者不得对商品的性能、功能作虚假或引人误解的商业宣传。Meta在推广Llama4时高调宣称其“多方面表现优异”,却刻意隐瞒“Llama-4-Maverick-03-26”模型是针对人类偏好优化的定制化模型,而非通用大语言模型。这一行为导致Chatbot Arena等第三方评测平台及开发者误将其纳入通用模型排名,使其通过特殊优化在评测中获得优势。Meta的“选择性宣传”实质构成双重误导,一方面使开发者对模型真实性能产生误判,干扰技术决策,另一方面通过片面强调性能优势,削弱了DeepSeek等竞争对手的公平竞争机会,已经满足“虚假或引人误解的商业宣传”构成要件,依法应承担停止侵权、赔偿损失、消除影响等法律责任。

开源模式的运转依赖于开发者的诚信与评测体系的公平性,Meta通过模糊模型技术边界获取竞争优势的行为,不仅直接损害其他竞争者的竞争利益,更对整个开源行业的创新土壤造成侵蚀。若“宣传套利”行为得不到有效遏制,将导致劣币驱逐良币,削弱开发者对开源技术的信心,最终破坏整个开源行业平衡。

 

4、纽约大学教授认为全球AI进步已停滞

近日,纽约大学心理学和神经科学教授Gary Marcus发布博文,其分享了自己对于目前AI的各类看法。Marcus开篇便提到「Scaling已经结束」。他举了近期十分火热的一个例子——Meta新推出的Llama4模型,由此表示,尽管Meta用了大量参数以及性能去训练模型,但依然没办法让「非推理」模型比规模更小的「推理」模型效果好,而这也证实了Marcus在三年前提出的《Deep Learning is Hitting a Wall(深度学习正在撞南墙)》。

对于生成式AI的经济发展,Marcus也表示失望:生成式AI正面临财务困境,而泡沫也随时破裂。Marcus提到,英伟达在2025年已经下跌三分之一,而在模型的研发上,市面上只会出现越来越多类似的模型,因此性能和模型规模,将不会成为高利润的关键。

Marcus还提到了一件十分令人啼笑皆非的事情:近日美国宣布的关税计划中,其影响到的地区竟然包含部分只有企鹅生活的偏远岛屿。对此Marcus也表示,这些计划可能就是美国政府过度依赖AI模型生成的后果。

最后,Marcus还总结表示,LLMs(大语言模型)不是未来之路,并且将会有更好的解决方案在未来等待着大家。(来源:爱范儿)

 

评论:Marcus并非AI技术专家,其发表评论并不代表技术发展趋势,但他的评论确实反映了当下部分人对AI发展的焦虑与期待。尤其是对于普通公众而言,AI的神秘光环正在消退,取而代之的是对其实际效用和社会影响的质疑。事实是否如Marcus所言,AI的发展真的已经走入死胡同?从目前的发展趋势来看并非如此,AI技术在探索更多的实现方案与场景。例如,AI与物联网、区块链等新兴技术的融合,有望创造出更多创新应用场景;在模型训练方面,新的算法和技术不断涌现,以提高模型的效率和性能;在数据处理方面,也在探索更加高效、安全的数据获取和利用方式。AI技术的发展或许不再像前几年那样以“指数级”的速度狂飙突进,但也正在从进入价值落地阶段,更强调实用性、可控性、伦理性,假以时日还是会给我们带来新的惊喜。

 

 


 

相关领域
高科技与人工智能