1、AI生成内容标识办法及标准征求意见
近日,国家网信办公布了《人工智能生成合成内容标识办法(征求意见稿)》(下称《内容标识办法》)以及配套强制性国家标准《网络安全技术 人工智能生成合成内容标识方法(征求意见稿)》(征求意见稿)(下称《内容标识方法》,合称“AI标识规范”),并面向社会公开征求意见,意见反馈截止时间为10月14日。
《内容标识办法》提出,人工智能生成合成内容是指利用人工智能技术制作、生成、合成的文本、图片、音频、视频等信息。人工智能生成合成内容标识包括显式标识和隐式标识。网络信息服务提供者应当按照有关强制性国家标准的要求进行标识。服务提供者提供生成合成内容下载、复制、导出等方式时,应当确保文件中含有满足要求的显式标识。提供网络信息内容传播平台服务的服务提供者应当采取措施,规范生成合成内容传播活动。包括提供必要的标识功能,并提醒用户主动声明发布内容中是否包含生成合成内容等。(来源:红星新闻)
评论:本次征求意见的内容标识办法及标准是全球范围内第一部关于AI生成内容标识的国家性标准,是网信办首先提出生成合成内容标识的中国方案。AI标识规范将直接推动AI生成内容标识义务在实践中的落地,对整个AI行业将产生直接的影响。我们理解其中需要特别关注的重点如下:
- 显式标识及隐式标识义务。《内容标识办法》第四条及第五条规定了显式标识及隐式标识的义务及要求。显式标识是指用户在浏览、收听、观看人工智能生成内容时,能够直接感知到的标识。如文字内容中增加(AI生成)的提示,图片中增加“AI生成”的水印。而隐式标识不易被用户直接感知,通常通过技术手段嵌入到生成内容的文件数据中,主要用于为监管部门和平台提供追踪和验证信息。这要求AI服务提供者需要在技术上进行升级,确保能够添加和检测标识。此外,服务提供者应在用户服务协议中明确说明生成合成内容标识的方法和样式,在开展算法备案、安全评估等流程时,应当提供符合该办法要求的生成合成内容标识的材料。
- 网络信息内容传播平台义务。《内容标识办法》第六条将网络信息内容传播平台服务的服务提供者纳入了核验与标识的义务主体,要求平台履行如下义务:1)核验义务,核验文件元数据中是否含有隐式标识,以识别生成合成内容。2)标识义务:根据核验结果、用户声明和主动检测,平台服务提供者应当在发布内容周边添加显著的提示标识,提醒用户内容的性质(确为、可能或疑似生成合成内容)。3)元数据完善义务:对于相关内容,应在文件元数据中添加生成合成内容属性信息和传播要素信息,增强内容的可追溯性。
- 互联网应用程序分发平台义务。《内容标识办法》第七条要求互联网应用程序分发平台在“应用程序上架或上线审核时,应当核验服务提供者是否按要求提供生成合成内容标识功能”。
- 用户义务,《内容标识办法》第十条强调了用户上传生成合成内容时的主动声明义务,要求用户使用平台提供的标识功能进行标识,同时禁止任何组织和个人恶意删除、篡改、伪造或隐匿标识,不得不当使用标识侵害他人合法权益。
虽然目前AI标识规范还在征求意见过程中,但我们理解相关AI从业者应尽早采取合规措施,如提前嵌入标识功能,确保生成内容可以添加显式和隐式标识,制定并更新用户协议,加强对用户生成内容的审核等等。
2、领英正在使用您的数据训练AI模型
如果您在LinkedIn上,那么您应该知道这个社交网络在没有征求意见的情况下,已将账户自动加入到训练生成性AI模型中。404Media报道,LinkedIn在推出更新的隐私政策之前引入了新的隐私设置和选择退出表格,表示平台的数据正在用于训练AI模型。正如TechCrunch所指出的,它已经更新了政策。
“我们可能会使用您的个人数据来改进、开发和提供产品和服务,开发和训练人工智能(AI)模型,开发、提供和个性化我们的服务,并借助人工智能、自动化系统和推断获得洞察,以便我们的服务对您和其他人更具相关性和实用性。”LinkedIn在帮助页面上写道,它使用生成性人工智能用于写作助手等功能。您可以通过前往帐户设置中的数据隐私选项卡并点击“用于生成性人工智能改进的数据”来撤销权限,以找到切换开关。将其切换为“关闭”以选择退出。
发布的关于其人工智能训练的常见问题解答中提到,它使用“隐私增强技术来编辑或删除个人数据”以保护其训练集,并且不对居住在欧盟、欧洲经济区或瑞士的人进行模型训练。(来源:Z Potentials)
评论:AI时代,网络平台眼馋平台用户数据已经不是一天两天了。近期已经发生了多起涉及使用用户数据进行训练的事件,例如:
- 2023年11月,某知名文字处理软件隐私政策中提到 “我们将对您主动上传的文档材料,在采取脱敏处理后作为AI训练的基础材料使用”,引发质疑。随后官方回应向用户致歉并承诺用户文档不会被用于AI训练目的,同时更新了隐私政策;
- 2024年6月,Meta平台通知欧洲用户将在6月底正式启动新的隐私政策:公司将使用Facebook和Instagram上的公开内容来训练大模型,包括互动内容、状态、照片和标题。更新的隐私政策引发了反对,奥地利非营利机构组织NOYB当即向11个欧盟成员国分别提起投诉,请求启动紧急程序。Meta此后宣布暂停使用欧盟和英国用户的数据训练AI,并推迟在欧洲推出自己的大模型。
- 2024年6月,Adobe更新了产品服务条款,要求用户同意Adobe可以“通过自动和手动的方式”访问用户作品,包括受保密协议(NDA)保护的内容,并使用“机器学习等技术来改进Adobe的服务和软件”。如果用户拒绝接受新条款,则无法正常使用Adobe的软件。Adobe于6月19日修订了服务条款,明确表示不会使用用户存储在本地或云端的内容来训练AI模型。
领英此次的隐私政策更新事件又是一个新的证明,其采取默示的条款方式显然不符合个人数据处理的明确同意及知情同意原则,本身就有违法嫌疑,更会损害用户对平台的信任,可以预见近期内必然会引起相关舆情。该等隐私政策难谓明智。但在另一方面,领英绕过了欧盟、欧洲经济区或瑞士地区,可见严格的个人隐私执法确实可以对企业的违规行为起到威慑作用。领英为了规避严格的监管要求,不惜放弃这些市场潜力巨大的地区,这从侧面反映出在隐私保护法规健全且执法严格的地区,企业若不遵守规则将会面临巨大的合规成本与潜在风险。
3、AI美女占领小红书
最近,AI社群内里有一条炸裂的聊天记录,传得沸沸扬扬。聊天记录原主声称,自己通过flux文生图模型跑出AI美女照片,发在小红书上不仅没有被平台标为AI,还成功获得流量扶持。随后,原主就附上了自己养的1327个小红书账号,全都是用AI美女照片做的账号矩阵,直接屠版小红书。
这种情况的出现,可能还要归功于小红书的推荐逻辑,对美的、精修过的“真实”照片偏好,平台会给予很大的流量支持。大平台的监管算法落后是一个问题,这里暴露的更大的问题是AI现在不止是通过文本、还能通过图片视觉进一步污染整个互联网。(来源:夕小瑶科技说)

4、在AI虚假信息之后Taylor Swift公开支持Kamala Harris
上月底,特朗普(Donald Trump)在其平台Truth Social上分享了一组图片,其中一部分涉及歌星Taylor Swift,称Swift支持特朗普,鼓励她的粉丝给特朗普投票。特朗普在明显由AI生成的虚假图像下表示接受。在9月10日ABC总统候选人辩论之后,Swift通过其Instagram账号公开宣布她支持民主党总统候选人、副总统贺锦丽(Kamala Harris)。Swift在声明中表示,她最近得知AI生成的虚假的她支持特朗普的图片发布到特朗普网站上,这令她对AI感到恐惧,也意识到传播虚假信息的威胁,作为一名选民,她需要对此次选举明确表态。对抗错误信息的最简单方法就是说出事实。(来源:Solidot)
评论:不可否认,AIGC是一场互联网技术革命,但它的兴起也伴随着海量内容伪造、滥用等情况,不少人都认为AI已经让互联网成为了“垃圾场”,其甚至可能因此影响社会或政治事件。前面的新闻都从侧面说明了《内容标识办法》及标准出台的必要性,监管部门和各网络平台需要对涉嫌违规的生成内容进行追踪和验证。目前,以抖音、小红书为首的头部社交平台早已采取AI识别技术,对相关AI内容进行标识及提示,以防范相关潜在法律风险。但很多其他平台并未采取对应的合规措施,实际上反而放任了AI生成内容的泛滥,导致垃圾信息的海量增加。这在短期内将是非常棘手的问题,我们期待技术上可以尽快找到有效的应对方案。
- 相关领域
- 高科技与人工智能





