1、阿尔巴尼亚任命AI机器人出任政府部长
阿尔巴尼亚总理埃迪·拉马于当地时间9月11日宣布了一项史无前例的内阁任命,任命一个名为“迪埃拉”(Diela)的人工智能担任公共采购部长。此举使阿尔巴尼亚成为世界上第一个任命非实体人工智能担任政府部长的国家,旨在根除长期困扰该国的腐败问题。

“迪埃拉”,在阿尔巴尼亚语中意为“太阳”,其虚拟形象是一位身着传统服饰的年轻女性。拉马总理在宣布新内阁的讲话中表示:“迪埃拉是第一位并非以实体形式存在,而是由人工智能虚拟生成的内阁成员。”根据新的安排,政府招标的决定权将逐步从各部委移交给“迪埃拉”。它将负责审查政府与私营公司签订的每一份招标合同,并对其进行客观评估。总理拉马表示,迪埃拉将基于预设的、透明且可追溯的规则和数据分析进行算法运作,从而杜绝评估过程中的裙带关系和利益输送。
尽管政府对此寄予厚望,但这一任命也引发了外界的担忧和质疑。目前,阿尔巴尼亚政府尚未详细说明将对“迪埃拉”进行何种人类监督,也未阐明如何防范其系统被恶意操纵的风险。反对派民主党则对此举的合宪性提出质疑,认为根据宪法,只有年满18岁的阿尔巴尼亚公民才能被任命为部长。(来源:财联社)
评论:将AI任命为政府部门的部长,与其说是治理创新,不如说是一场精心包装的政治表演。此举制造了一个完美的责任黑洞。目前AI没有自主意志,无法自主进行任何决策及行为,完全受操作人意见影响。一个没有法律人格的部长,无法承担决策对应的法律责任。更重要的是,算法由人设计,数据由人提供,任何环节都可能被污染。在缺乏透明的监督机制、独立的算法审计和有效的司法救济途径之前,这位迪埃拉部长不仅无法根除腐败,反而可能成为一个无法被问责的、更高效的腐败工具,将所有责任都推给一个冰冷的黑箱,成功的解决了AI不能背锅的核心问题。这位部长开创了一个危险的先例,用技术的华丽外衣来掩盖治理的真正难题。
2、主张AI文生图版权但无法提供生成过程记录证明智力投入,被法院驳回
原告周某为文化创意行业的内容创作者,其主张自己在与被告北京某科技公司合作创业期间,独立使用某AI绘画软件创作完成“猫咪晶钻吊坠”一图,并在微信群聊中公开发表。在双方未就涉案图片的使用达成合意的情况下,原告于2023年10月发现被告未经许可擅自在多个平台使用涉案图片进行宣传,后在原告要求下被告删除涉案图片。2024年3月,原告再次发现被告在相关平台使用涉案图片进行宣传。原告将被告起诉到法院,主张被告未经许可使用涉案图片,侵犯了其对涉案图片享有的署名权和信息网络传播权,应当赔偿原告经济损失并赔礼道歉。

被告北京某科技公司辩称,涉案图片并非原告独创,原告与被告系合作关系,确认相关材质、设定AI指令关键词等创作环节均由双方共同构思合作完成。原告主张通过AI软件生成涉案图片,但难以证明其创作过程情况,不足以认定涉案图片具有独创性。涉案图片与被告实际售卖的产品并无关联,被告并无任何售卖牟利行为及商业用途,不具有侵权故意。
本案审理过程中,原告未提交涉案图片在AI绘画软件中的生成过程记录,无法说明涉案图片生成的具体过程。原告在诉讼过程中,利用同款AI软件对涉案图片进行了复现描述,即进行事后模拟,主张通过上述复现的过程可以证实其在上述过程中作出相应的选择、安排与判断,付出了创造性劳动。(来源:北京互联网法院)
评论:近期,国内法院关于AI生成内容著作权的判例有收紧趋势,出现多个法院对于原告诉讼请求未支持的情况,本案也是代表了北京互联网法院的最新态度。综合近期的案件来看,中国法院的审理趋势日益清晰和审慎,呈现出以下几个核心特点:
- 以人类智力投入作为核心。无论是北京互联网法院首例认定的春风送来了温柔案,还是武汉法院审理的AI生成图被侵权案,法院均明确,AI生成内容是否构成作品,关键在于是否体现了人类的独创性智力投入。AI本身不能成为作者,它仅被视为创作者手中的画笔或相机等工具。
- 举证责任趋于严格。早期的判例更侧重于对生成结果的独创性进行判断,而猫咪晶钻吊坠案和另一起幻之翼透明艺术椅案则标志着法院对过程证据的审查日趋严格。创作者不仅需要提交最终生成的图片,更需要提供证据链,证明其在创作过程中如何通过设计、选择、修改和调整(如输入具体提示词、设置复杂参数、进行多轮筛选等)对最终生成结果施加了决定性影响。简单的、笼统的指令或想法,不足以被认定为《著作权法》意义上的创作。
这个判例对内容创作者及将AI生成作为工作流的企业而言很有意义,创作者在使用AI工具时,必须树立过程留痕的意识。这包括但不限于:保存详细的提示词(Prompt)、记录参数设置、保留生成过程截图或录屏、进行著作权登记等。此外,创作者还应关注提升创作的可说明性,创作者需要能够清晰地阐述自己的创作理念,以及这些理念如何通过具体的AI指令和参数调整得以实现,从而证明生成物是其思想和审美的个性化表达。
3、公安网安部门依法对某人工智能服务科技有限公司予以行政处罚
9月15日,公安网安部门在“护网—2025”专项工作中发现,某主营业务为对外提供人工智能模型训练基础数据(算料)的科技有限公司,在处理人脸等生物识别类敏感个人信息前,未按《个人信息保护法》有关规定进行个人信息保护影响评估。属地公安机关依据《个人信息保护法》规定,对该公司依法予以行政处罚,并责令整改。(来源:国家网络安全通报中心)
评论:在数据合规的赛道上,没有先上车后补票的特权,程序违法本身就是实体违法。此案明确显示,监管机构的执法重点已覆盖至数据处理的事前程序合规。对于从事肖像合成等业务、必须接触人脸等敏感生物数据的AI企业,合规落地不能再停留在纸面:
- 将个人信息保护影响评估(PIA)纳入产品流程。任何涉及处理人脸、声纹、步态等敏感生物识别信息的项目,必须将完成并通过PIA报告作为项目立项或启动的强制性前置条件,没有PIA报告,项目不得启动数据处理环节。
- 数据获取最小化,用特征替代真人。在技术可行的情况下,应优先在用户终端(如手机App)完成生物特征的提取。只上传经过哈希、加密、脱敏后的特征向量到服务器进行处理,用户的原始图像不离开个人设备。
- 完善场景化告知。在自有的产品或服务中获取用户肖像时,单独同意不能隐藏在冗长的隐私协议中。必须通过弹窗、加粗、勾选框等强提示方式,就“为何收集你的人脸信息”“将用于何种模型的训练”“可能存在哪些风险”等核心事项进行清晰告知,并获取用户的明示同意。
- 缩短敏感数据的处理周期。如果业务模式必须上传原始图像,那么必须建立阅后即焚机制。自动化流程应确保原始图像在完成特征提取、模型训练或图像生成等核心任务后,在最短时限内删除相关数据。
4、特斯拉修改了Full Self-Driving的定义,放弃承诺自动驾驶
特斯拉修改了Full Self-Driving(FSD)的定义,放弃原来承诺的自动驾驶或者叫无监督全自动驾驶。特斯拉自2016年起一直承诺其正在生产的汽车支持无监督自动驾驶能力。特斯拉CEO马斯克(Elon Musk)自2018年起每年都承诺到年底自动驾驶将会实现。但特斯拉后来承认2016-2023年生产的所有车型未配备实现自动驾驶所需的硬件。现在特斯拉表示FSD代表有监督的自动驾驶。(来源:Solidot)
评论:迫在眉睫的法律责任才是企业进行合规的最大动力。今年8月,美国佛罗里达州一个法院裁定,特斯拉公司在2019年一起车祸中负有责任,应向原告方赔偿超2.4亿美元。今年9月,特斯拉公司与受害者就自动驾驶事故已达成一项保密和解协议。有媒体报道称“自动驾驶诉讼的闸门已经打开”。特斯拉本次为FSD的改名,实质上宣告了营销部门吹下的牛,最终要由法务部门和公司的钱包来买单。那些意图用“Autopilot”和“Full Self-Driving”这类词汇抢占用户心智的宣传的企业,在冰冷的法律现实面前,无异于自掘坟墓。
为此,所有自动驾驶企业都应该特别关注宣传合规事项,特别是:
- 避免过度承诺。企业应审查并清除暗示或明示“全自动”“无人”“解放双手”等让用户产生不切实际幻想的营销词汇。请将宣传口径从“自动驾驶”坚决拉回到法律上更安全的“辅助驾驶系统”,名不正则言不顺,言不顺则诉讼至。
- 全流程驾驶员责任提示。在用户界面、开机提示、升级说明,都必须不厌其烦地强调:系统仅为辅助,驾驶员是永远的第一责任人。甚至可以学习国内品牌设置视频课程及考试才能开始该功能。责任提示不应是藏在免责条款里的一行小字,而应是用户每次使用都无法绕过的必选项。
- 相关领域
- 高科技与人工智能





