专业团队

天元汇聚各领域精英律师,拥有200余名合伙人,800余名律师及专业人员,凭借深厚的执业经验和项目经验,为客户提供全方位、跨区域、综合性、一站式的法律服务和最佳商业解决方案。

专业领域

天元凭借30年法律实践经验和不断创新的执业能力,业务覆盖中国律师主要执业领域和新兴领域,并在诸多领域保持中国顶尖律师水准和跨团队综合服务能力,近年来连续承办了诸多开创先河的交易和极具行业影响力的项目和案件。

洞察资讯

天元律师紧跟行业发展趋势,聚焦法律热点话题,凭借独到视角和市场洞察力,帮助客户了解法律最新变化,用专业的观察、分析与见解助力客户做出更为明智的商业选择与决策。

关于天元

作为国内具有长远历史和深厚文化的领先律所,天元始终以法律服务为根本,不断探索和创新,30年来与中国经济同向前行,在中国15个经济活跃城市设立办公室,在业内享有盛誉。

AI法律评论丨韩国成全球第二个通过《AI基本法》国家
日期:2025年01月03日

1、韩国成全球第二个通过《AI基本法》国家

12月27日消息,韩国国民议会当地时间昨日通过了《人工智能发展与信任基础创建法》,该方案预计在明年初得到内阁会议通过后在2026年1月开始实施。韩国也因此成为欧盟后全球第二个通过“人工智能法案”的国家或地区。

《AI基本法》围绕三大核心方向展开,旨在为人工智能的未来发展奠定坚实的法律基础。首先,在治理体系的建设上,法案明确规定了韩国科学与ICT部部长有权与相关机构和地方政府协商,每三年制定并实施一项以提升国家AI竞争力为目标的基本计划。同时,还为韩国人工智能委员会与人工智能安全研究所的运作确立了合法框架,确保AI发展有序进行。

其次,法案强调支持产业发展,韩国政府将为人工智能应用的推动提供法律支持。计划通过设立AI园区、促进AI数据中心建设等手段,助力AI生态体系的繁荣。同时,法案中还包含了人才培养和对中小型AI企业的扶持措施,彰显了对AI人力资源的重视。

最后,法案关注防范可能的风险,将高影响力的AI和生成式AI列为受监管实体。开发者需要确保AI系统的透明性和安全性。此外,政府将协助私营企业自愿进行AI可靠性和影响性评估,为全社会的AI应用放置了一道安全防线。(来源:IT之家)

 

评论:2024年3月,欧洲议会通过《欧盟人工智能法案》,为全球首部综合性人工智能监管法案。2024年12月底,韩国通过《人工智能发展与信任基础创建法》,为全球第二个通过“人工智能法案”的国家。这意味着各个国家都关注对AI技术的立法及监管。根据《国务院2024年度立法工作计划》载明2025年“预备提请全国人大常委会审议人工智能法草案”,我国相关立法也已经在推进过程中。

综合审视《欧盟人工智能法案》及韩国《AI基本法》,可以发现存在相同的立法倾向:(1)风险分级管理:欧盟《人工智能法案》根据人工智能系统对用户和社会的潜在影响程度,将人工智能系统分为不可接受风险类、高风险类、有限风险类和最小风险类。韩国《AI基本法》虽未明确如此细致的风险分级,但也将高影响力的AI和生成式AI列为受监管实体,重点关注高风险领域。(2)透明度与可解释性:欧盟要求人工智能系统提供透明度和可解释性,确保用户能够了解人工智能系统的决策过程,要求平台添加强制性水印。韩国也规定高影响力AI和生成式AI的开发者需要确保AI系统的透明性和安全性,要求提供生成式人工智能产品或服务的运营者应在生成物中标明该生成物是由生成式人工智能生成的事实。

结合前述立法经验及我国学者的《人工智能示范法》,我们可以合理预测我国的人工智能法将有如下规定:

  • 完善风险分级监管体系。中国可以借鉴欧盟和韩国的做法,进一步细化、完善分类分级监管规则。目前中国在《生成式人工智能服务管理暂行办法》中明确了对生成式人工智能服务实行分类分级监管的主要原则,但在具体监管细则以及实施方式上仍可进一步细化。通过聚焦不同类别生成式人工智能的应用特点,提出特定的监管要求,并根据行业特性在不同行业内形成一整套完备的生成式人工智能风险评估标准,推动公共数据分类分级有序开放,在特定场合适用不同的监管模式并考虑采取差异化的监管处罚措施,合理地因情施策。
  • 强化透明度与可解释性要求。在立法中明确规定人工智能系统开发者和使用者有义务提高系统的透明度和可解释性,尤其是对于那些可能对用户权益产生重大影响的人工智能应用,如金融、医疗、招聘等领域,应确保用户能够理解系统的决策过程和依据,保障用户的知情权和选择权。
  • 设置明确的合成标识义务。我国在2024年9月发布了发布《人工智能生成合成内容标识办法(征求意见稿)》,对标识义务有明确要求。在人工智能法中,可明确开发者的强制标识义务,明确服务提供者、传播平台、应用服务分发平台和用户等不同主体在合成标识义务中的具体责任。但同时可以规定例外条款,如生成物具有艺术性、创意性,应以不妨碍展示的方式通知或注明。

 

2、DeepSeek-V3超越迄今为止所有开源模型

12月26日,深度求索官方微信公众号推文称,旗下全新系列模型DeepSeek-V3首个版本上线并同步开源。公众号推文是这样描述的:DeepSeek-V3为自研MoE模型,671B参数,激活37B,在14.8T token上进行了预训练。DeepSeek-V3多项评测成绩超越了Qwen2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上和世界顶尖的闭源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。

“DeepSeek-V3超越了迄今为止所有开源模型。”这是国外独立评测机构Artificial Analysis测试了DeepSeek-V3后得出的结论。不过,广发证券发布的测试结果显示,DeepSeek-V3总体能力与其他大模型相当,但在逻辑推理和代码生成领域具有自身特点。

更重要的是,深度求索使用英伟达H800 GPU在短短两个月内就训练出了DeepSeek-V3,仅花费了约558万美元。其训练费用相比GPT-4等大模型要少得多,据外媒估计,Meta的大模型Llama-3.1的训练投资超过了5亿美元。

消息一出,引发了海外AI圈热议。OpenAI创始成员Karpathy甚至对此称赞道:“DeepSeek-V3让在有限算力预算上进行模型预训练这件事变得容易。DeepSeek-V3看起来比Llama-3-405B更强,训练消耗的算力却仅为后者的1/11。”(来源:每日经济新闻)

 

评论:DeepSeek的成功是令人振奋的,让国际社会看到了在技术受限的艰难环境下,中国 AI 企业凭借锲而不舍的精神取得突破。该V3版本的成功也打破了某大厂关于“开源 AI 模型会越来越落后”的断言。但当前V3版本依然存在法律合规风险,例如媒体报道V3有时候会产生奇怪的幻觉,比如自称“GPT-4”,甚至连所讲的笑话都与 GPT-4 高度雷同。

从训练语料合规性方面来看,虽然目前没有直接证据表明DeepSeek V3在训练过程中使用了不合规的语料导致出现这些问题(有媒体推测V3很可能是训练数据受到了污染,使用了互联网上过量的GPT-4生成的文本内容),但上述异常现象不得不让人对其训练语料来源的合法性和合规性产生质疑。从开发者角度,若要确保模型的长期稳定发展和商业成功,必须高度重视训练语料的合规性,我们建议DeepSeek团队应根据相关用户及媒体反馈对现有训练语料进行全面、细致的审查,停止使用未经授权内容并对相关数据进行清理。在输出侧,DeepSeek团队也需要构建严格的内容审核机制,模型输出内容进入用户视野之前,必须经过严密的筛查流程。

 

 

 

 


 

 

相关领域
高科技与人工智能