1、网络安全法完成修改,引导AI发展
10月28日,十四届全国人大常委会第十八次会议表决通过关于修改网络安全法的决定,自2026年1月1日起施行。
作为网络安全领域的基础性法律,现行网络安全法自2017年6月1日施行以来,对于维护国家网络空间主权、安全和发展利益,保护各方主体在网络空间的合法权益,促进经济社会信息化健康发展发挥了重要作用。近年来,信息技术日新月异,网络应用更加普及,日益融入社会生产生活。与此同时,网络安全风险进一步凸显,人工智能等新技术的发展给网络安全带来新挑战,网络违法行为屡有发生。适应网络安全新形势新要求,此次网络安全法的修改重点强化网络安全法律责任,加大对部分违法行为的处罚力度,加强与相关法律的衔接协调,进一步筑牢国家网络安全屏障。
人工智能作为战略性技术,正引领新一轮科技革命和产业变革,深刻改变人类生产生活方式。回应人工智能治理和促进发展的需要,修改后的网络安全法规定,国家支持人工智能基础理论研究和算法等关键技术研发,推进训练数据资源、算力等基础设施建设,完善人工智能伦理规范,加强风险监测评估和安全监管,促进人工智能应用和健康发展。(来源:新华社)
评论:本次修订为网络安全法立法后八年的首次调整,为顺应全球数字经济发展的浪潮,其中最具前瞻性的变化莫过于新增的第二十条,首次将人工智能(AI)的治理原则写入法律。这标志着中国对AI的监管从政策引导、伦理倡议正式走向了法律规制。
当前,第二十条采取了促进与规范并重的立法思路,一方面条款明确“国家支持人工智能基础理论研究和算法等关键技术研发,推进训练数据资源、算力等基础设施建设”。这为从事AI研发和应用的企业释放了积极信号,肯定了技术创新的价值。另一方面,同时,条款强调“完善人工智能伦理规范,加强风险监测评估和安全监管,促进人工智能应用和健康发展”。这为企业的AI合规提出了明确要求。
对AI企业而言,该条款意味着以下合规方向:
- 企业在开发和应用AI算法时,必须建立内部的伦理审查机制,确保算法不存在偏见、歧视,并符合社会主义核心价值观。
- 对用于训练模型的数据,其收集和使用必须符合《个人信息保护法》等法律的要求,特别是涉及个人信息的,需要获得充分授权。数据质量和标注的准确性亦是保障AI安全的基础。
- 企业需要建立一套针对AI应用的风险评估体系,能够识别和评估其在运行中可能产生的安全风险(如算法漏洞、数据污染、决策偏误等),并采取相应的技术和管理措施进行防控。
可以预见,该条款将成为未来国家制定AI具体管理办法和标准的法律依据。企业应未雨绸缪,事先将AI治理嵌入产品研发和服务的生命周期,以便于更好的进行合规过渡。
2、厄瓜多尔弑母分尸案,凶手用AI伪造语音骗过警察
近期,厄瓜多尔瓜亚基尔发生一起弑母弃尸案件,32岁女子安德蕾娜・拉莫塔・索利斯(Andreína Lamota Solís)涉嫌杀害其母亲49岁的玛莎・西西莉亚・索利斯・克鲁斯(Martha Cecilia Solís Cruz),并将母亲肢解后藏放在家中洗衣机与蓝色垃圾桶中,以掩盖罪行。

根据英国《LADbible》报道,透过厄瓜多尔盖娅斯检察署资料显示,克鲁斯于10月6日被家属通报失踪,她最后一次现身是在家族聚会上。警方于上周前往母女同住的住宅搜查时,在洗衣机内与垃圾桶中发现被切割成数块的遗体,确认为克鲁斯。调查期间,索利斯向警方提供多段视频,声称母亲仍然活着、希望停止调查。其中一段视频甚至呈现疑似克鲁斯本人对警方表示:我很好。然而经鉴识确认,这些视频皆由人工智能生成,涉嫌试图误导办案方向。
厄瓜多尔全国暴力命案与重大犯罪侦查处处长穆尼奥斯上校指出,索利斯曾以母亲身份租下一间日租房,并伪装成母亲出入,试图制造她仍在外活动的假象。他指出:她穿着母亲的衣物进入,离开时又换回自己的衣服,企图隐藏行踪。穆尼奥斯透露,警方在掌握关键证据后,索利斯于10月16日坦承杀害母亲。她曾声称犯案动机为金钱纠纷,但警方不排除此案可能尚有其他犯罪因素,目前正调查其手机与相关资料。(来源:新智元)
评论:这则弑母案的新闻,其案情本身已足够骇人听闻。但作为法律专业人士,我们更应警惕其中一个细节:嫌疑人利用AI技术伪造了被害人的视频和音频,并成功在初期误导了警方的调查。这充分说明AI生成的伪证正以前所未有的逼真度,侵蚀着传统证据规则的根基。
传统的民事诉讼证据规则建立在眼见为实的朴素认知之上,录音、录像等视听资料因其直观性,往往被视为证明力较强的证据。然而,AI合成技术的普及化,使得眼见不再为实。我们可以预见,在今后的商业纠纷、离婚诉讼、名誉侵权乃至遗嘱继承等案件中,一方当事人完全可能提交一段由AI精心伪造的通话录音或现场视频,其内容足以以假乱真,导致严重的司法不公。
当前,普通人乃至部分司法人员尚不具备精准识别AI合成内容的能力,法院若不具备相应的技术辨识能力,极易作出错误裁判,严重损害司法公信力。我们建议应尽快更新电子证据的审查标准,考虑对疑似AI合成的证据设立更高的采信门槛,并明确其举证责任的分配规则。同时也应推动建立权威的AI生成内容鉴定标准与第三方鉴定机构。在诉讼中引入专家辅助人或指定专业机构进行技术鉴定,为法官查明事实提供技术支持,避免因此带来对司法公信力的损害。
3、律师使用AI生成虚假案例遭北京法院公开训诫
近日,通州法院审理了一起由股权代持引发的商事纠纷案件。诉讼中,原告代理人为了进一步佐证其观点,庭后向法院提交了书面意见,其中援引了名为最高法院的某案例及上海一中院的(2022)沪01民终12345号案件。从代理意见的描述来看,两案的事实细节、法律争议与裁判逻辑都与审理中的案件高度契合,完美佐证了原告代理人的主张观点,初看之下极具参考价值。
出于职业敏感性,承办法官进行了检索核实,结果却发现,这两个案号所对应的真实案件事实与代理人书面意见中描述的情况完全不同。其中,(2022)沪01民终12345号案件实际上是一起民间借贷纠纷,与书面意见中描述的事实完全不符,和本案所涉及的事实亦毫无关联,没有任何相似或者可以参照的情节。在承办法官的质询下,原告代理人最终承认,参考案例是由其提炼本案的事实情节,后反复向某AI大模型软件提问,由该软件生成的参考案例,代理人未进一步核实,而是直接复制粘贴后即提交法院。最终,承办法官依据法律规定,结合案件事实对原告代理人的该部分代理意见未予采纳。
承办法官在判决书中明确对原告代理人的行为提出批评,要求原告代理人引以为戒,在向法院提交参考案例、法条时,应当进行检查和核验,确保内容的真实性和准确性,不得放任人工智能模型生成或者编造虚假信息扰乱司法秩序,一审判决后,双方均未提出上诉,判决已经生效。(来源:京法网事)
评论:此前,美国、英国等地有诸多律师因提供AI编造的虚假案例而被法院处罚。而本次是中国首例经由法院在裁判文书中公开披露并予以训诫的同类案件,标志着AI对律师行业、司法行业的冲击已从域外新闻变为我们身边的现实。虽然本次事件仅涉及到AI编造的案例,但是我们相信其实AI生成的错误内容可能已经出现在律师的邮件回复、法律研究、备忘录等文件中,这些未经核实的错误,正在无形中侵蚀着法律服务的严谨与专业。
AI工具的本质是效率放大器,它能放大严谨,也同样能放大草率。在汹涌而来的AI技术面前,整个律师行业可能都需要考虑一个问题:在拥抱技术效率的同时,我们如何才能守住自己的专业性?但无论如何,原则肯定永远不变:技术可以作为助手,但绝不能替代律师的独立思考、审慎判断与最终核查,律师才是所有意见的最终责任人。
4、研究发现大语言模型长期看社交媒体会“脑残化”
根据德克萨斯农工大学、德州大学奥斯汀分校和普渡大学的最新研究,大型语言模型(LLM)在长期接触低品质的社交媒体文本后,会出现类似人类“脑腐化”(brain rot)的现象,导致认知能力下降。研究指出,当模型持续接收短小且病毒式的内容时,推理能力降低23%,长期上下文理解能力下降30%。
研究中提到的“思考跳过”现象,意味着AI模型在回答问题时越来越无法制定计划,或是省略了推理过程中的某些部分。这一现象在使用Meta的开源Llama3和阿里巴巴的Qwen LLM模型时尤为明显,这些模型在接受低品质训练后,显示出更高的自恋和心理病态特征。
即使在使用高品质人类撰写的数据进行“指令调整”后,这些模型仍然显示出持续的负面影响,推理品质与其基线相比存在显著差距。研究人员警告,由于AI模型的训练依赖于主要来自网络,这些模型不可避免地会接触到低品质内容,这可能对整个技术造成风险。(来源:十轮网)
评论:这篇研究报告揭示的,远不止是“垃圾进,垃圾出”的道理,而是大语言模型可能正在步入一个数据马尔萨斯陷阱。第一代聪明的AI,其认知建立在互联网上由人类创造的、相对高质量的数据存量之上。然而,随着这些AI开始大规模生成内容,其产出的大量、重复、有时甚至是低质的文本正以前所未有的速度反哺回互联网,污染着互联网数据池。研究中模型的脑残化,正是这个陷阱的早期征兆。它意味着,未来的模型,将不可避免地在一个被前辈们生成的内容稀释乃至污染过的数据环境中学习。这将形成一个认知能力螺旋式下降的恶性循环,用笨模型产生的数据,去训练出更笨的模型。
单纯追求参数规模和训练速度的暴力美学可能已触及天花板。未来的核心竞争力,将从模型有多大转向数据有多纯、标注有多准。谁能建立起高质量的私有数据集,谁才能掌握解开这个陷阱的钥匙。
- 相关领域
- 高科技与人工智能





