1、网信办对“开山猴”AI写作网站未尽到审核管理义务进行处罚
近日,九龙坡区网信办依法对属地“开山猴”AI写作网站运营主体重庆初唱科技有限公司未尽到审核管理义务、履行主体责任不到位的行为作出行政处罚。
经查,该企业运营的“开山猴AI写作大师”网站违规生成法律法规禁止的信息,未尽到主体责任义务,违反了《中华人民共和国网络安全法》《生成式人工智能服务管理暂行办法》等相关法律法规。九龙坡区网信办依据《中华人民共和国网络安全法》第六十八条的规定,给予其行政警告处罚,并责令该公司限期全面整改,加强信息内容审核,健全信息内容安全管理相关制度,暂停网站信息更新及AI算法生成式写作功能15日。(来源:网信重庆)
评论:《生成式人工智能服务管理暂行办法》第九条规定,服务提供者应当依法承担网络信息内容生产者责任,包括采取技术措施对生成的内容进行审查,发现违法内容应立即采取停止生成、停止传输、消除等处置措施,告知用户不得利用服务生成违法内容等。“开山猴”服务提供者未能尽到基本的管理义务,导致网站内出现禁止信息(目前我们并未看到禁止信息的具体细节、类型等),其应承担停止服务、没收违法所得的法律责任,本次网信办的处罚结果其实很轻,某种程度上体现出对AI行业的“严管厚爱”。但本次处罚也体现出,各地网信办非常关注AI产品合规及运营情况,已将其列为日常巡查执法工作,相关服务提供者应根据法规要求采取全面的合规措施,不宜为省合规成本而试探监管红线。
此外,我们通过查询互联网信息服务算法备案系统,发现目前“开山猴”并未进行算法备案,目前也没有“开山猴”进行大模型备案的任何信息。此次网信办的处罚中并未提及该等备案事宜,确实令人感到疑惑。我们合理推测,目前网信办等主管机关对于AI产品备案仍是督促、鼓励态度,并不要求必须完全完成双备案,在不存在其他明显违法情形下,不会因为服务提供者未完成双备案而贸然处罚。
2、国家标准《网络安全技术 生成式人工智能服务安全基本要求》(征求意见稿)发布
5月23日,全国网安标委发布国家标准《网络安全技术 生成式人工智能服务安全基本要求》(征求意见稿),征求意见最终期限为7月22日前。本标准旨在支撑《生成式人工智能服务管理暂行办法》,给出了生成式人工智能服务在安全方面的基本要求,包括训练数据安全、模型安全、安全措施等,并给出了安全评估参考要点。(来源:全国网安标委)
评论:2024年3月,全国网络安全标准化技术委员会(下称“网安标委”)(TC260)发布了TC260-003《生成式人工智能服务安全基本要求》。本次网安标委再次发布了《网络安全技术 生成式人工智能服务安全基本要求》的国家标准。本标准为推荐性标准,理论上其内容是建议性的,企业和组织可以根据自身需要选择遵守或不遵守。但实践中,网信办在大模型备案等工作中依然会进行参照,因此本次国标的发布将对AI行业有直接影响。
从内容上看,本次国家标准整体继承了TC260技术文件主要内容,对其内容进行了重新编排,部分用语做了规范化调整。目前我们注意到最大变化是,网安标委在“模型安全要求”部分删除了“如需基于第三方基础模型提供服务,应使用已经主管部门备案的基础模型”。这可能意味着国家标准不再要求服务提供者必须基于已备案的基础模型提供服务,使用Llama3等开源模型可能不再有法律障碍。但实践中如何把握该等标准还仍需主管部门给出明确态度,对此我们将持续保持关注。
3、斯坦福:AI法律研究工具在17%的查询中产生幻觉
近日,斯坦福大学发布了一份名为《“无幻觉?评估领先的 AI 法律研究工具的可靠性》的论文(修订版)。这篇论文重点分析了两家头部法律研究公司 Thomson Reuters和LexisNexis旗下的AI法律研究工具的可靠性,特别是它们在生成内容时是否会出现“幻觉”(hallucinations)——即编造虚假信息。论文发现,Lexis+ AI的幻觉时间为17%,Westlaw的幻觉时间则高达 33%。同时,Lexis+ AI在65%的时间提供了准确的答案,而Westlaw 提供了准确答案的时间只有42%,这些数据比两家公司所宣传的次数要多得多。(来源:法律修音机)
4、LexisNexis 收购合同起草初创公司 Henchman
6 月 3 日消息,全球领先的信息和分析服务商 LexisNexis 宣布即将收购智能合同起草平台 Henchman,旨在丰富旗下的文档管理系统(DMS),并加快文档起草速度。Henchman 是一家合同起草软件初创公司,成立于 2020 年。2023 年初,Henchman 就宣布集成 GPT-3 大模型,并推出 AI 助理,可以用于合同起草、谈判和审查。2023 年 3 月,Henchman 完成 650 万欧元 A 轮融资。Henchman 在全球拥有 170 多个客户,包括美国和欧洲的顶级律师事务所和公司。2023 年 11 月,Henchman 宣布四大会计师事务所之一的「德勤」成为其客户。(来源:法律修音机)
评论:因训练数据丰富、规则及逻辑明确,法律行业与医疗行业被认为是AI工具可能首先落地的垂直领域之一。但另一方面,基于法律服务天然的准确性、保密性需求,对于AI工具的能力要求极高,如果无法有效克服大模型可能出现的“幻觉”问题,法律AI工具可能永远无法落地。近期斯坦福大学的该研究给如火如荼的法律AI工具浇了冷水,这个研究结果也符合我们团队的使用AI工具的经验。当前部分的法律AI工具,甚至没有办法完成最基本的法律检索功能,更不用说生成实践中符合需要的协议甚至文件。法律AI工具终究只是一场镜花水月吗?我们希望不是,但是目前没有更有说服力的证据。
5、斯坦福团队承认抄袭中国大模型
5月29日,一个来自斯坦福的AI团队在网上发布文章《Llama 3-V: Matching GPT4-V with a 100x Smaller Model and 500 Dollars》,表示其成功训练出一个SOTA多模态模型Llama3-V,性能比GPT-4V、Gemini Ultra、Claude Opus更强,而训练成本仅需500美元。由于团队成员拥有斯坦福、特斯拉、SpaceX、亚马逊等亮眼背景,Llama3-V引发众多开发者关注。很快,经社区比较发现Llama3-V抄袭了面壁智能的多模态模型MiniCPM-Llama3-V 2.5,两者在模型结构、代码、配置文件等方面完全相同,只是进行重新格式化、重新命名。6月2日晚,面壁智能团队确认抄袭事实,面壁智能刘知远表示已经比较确信Llama3-V是对我们MiniCPM-Llama3-V2.5套壳。CEO李大海也给出确认抄袭的一大理由是:经过测试,Llama3-V不仅能识别“清华简”的战国古文字,而且在犯错的地方也和MiniCPM-Llama3-V2.5如出一辙。此后,斯坦福Llama3-V团队的两位作者Siddharth Sharma和 Aksh Garg在社交平台上就抄袭行为向面壁智能团队正式道歉,并删除了Github等站点的项目。(来源:网易新闻)
评论:本事件是本周AI行业的突发事件,其关注度及讨论度迅速发酵,相关社群中既关注中国大模型的技术能力获得认可,也关注开源协议中对模型代码的使用问题。实际上,面壁智能的MiniCPM-Llama3-V2.5虽然已经开源,但开源并不意味着所有用户都可以免费拿着开发者的成果任意使用,用户依然应该遵循开源协议中的基本要求。例如,MiniCPM-Llama3-V2.5使用的是Apache License,该开源协议要求用户说明作品来源,应对修改后内容附上显著声明,并保留作品源码形式的所有版权、专利、商标和权属声明。本次斯坦福项目明显没有遵循该等约定义务,径直将他人的开发成果作为其成果予以发布,其行为明显违背开源精神,已经涉嫌构成对权利人面壁智能的著作权侵权,也同时属于窃取和谎报的学术不端行为。
- 相关领域
- 高科技与人工智能