2022年11月底,ChatGPT公开测试,当时因为其性能优异在AI圈和科技圈获得了众多关注。2023年春节后,ChatGPT逐渐成为明星产品,各行各业都开始关注这项新技术。据媒体统计,Netflix实现注册用户100万用了3.5年,Facebook用了10个月,但ChatGPT只用了5天。更夸张的是,ChatGPT实现月活用户1亿也仅用了2个月,这种用户增长速度是史无前例的。当前,ChatGPT可以总结财报要点、提供日常问题咨询、提供编程示例及检查,有用户使用ChatGPT通过美国医学执照考试、沃顿商学院MBA期末考试及美国司法考试,近日甚至出现医学论文预印本和已发表的文章正式赋予了ChatGPT作者身份。ChatGPT的“超能力”既让各行业感到兴奋,同时也带来了社会责任、法律风险方面的隐忧。对于国内公司而言,是否可以使用ChatGPT作为生产力工具,这过程中又存在哪些法律风险,我们将在本文予以解读及提示。
一、ChatGPT生成内容是否可以成为作品
ChatGPT既可以直接回答用户的简单问题,也可以根据用户的需要创作出故事梗概、学术论文、诗歌、工作周报,其回答的内容根据用户的问题具有多样性。目前对于ChatGPT等AI生成内容的著作权问题,我国《著作权法》并没有进行特殊规定,世界各国对此也多处于空白状态。从理论上分析,《著作权法》第三条规定“本法所称的作品,是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果。”故我国著作权法意义上的作品需要满足下列构成要件:属于文学、艺术、科学领域;具有独创性;能以某种形式复制;智力成果。因此,无论自然人所创作的内容还是AI生成的内容,需要满足前述构成要件才为法律规定的作品,还需结合具体主张的内容情况予以个案分析。
此前,对于AI生成内容的著作权问题,我国已经有在先判例。例如在(2019)粤0305民初14010号案件中,原告腾讯公司主张AI软件生成的文章构成作品。南山区法院从文章的外在表现形式与生成过程来分析,认为“Dreamwriter软件的自动运行并非无缘无故或具有自我意识,其自动运行的方式体现了原告的选择,也是由Dreamwriter软件这一技术本身的特性所决定……从涉案文章的生成过程来分析,该文章的表现形式是由原告主创团队相关人员个性化的安排与选择所决定的,其表现形式并非唯一,具有一定的独创性。”最终认定腾讯公司主张的文章构成《著作权法》所保护的作品。
综上所述,ChatGPT生成内容是否构成作品仍需根据其回答的具体形式而确定,如果回答内容是故事梗概、学术论文、诗歌等,能够体现出个性化的安排与选择,应认为从表现形式及生产过程中都具有独创性,构成文字作品。
二、ChatGPT内容是否可以商业使用
从技术原理上来看,当前的ChatGPT内容仍是经过对模型训练、强化学习、监督学习后根据算法输出的结果,其不具有自主意识不能视为作者。而ChatGPT平台由OpenAI公司组织开发完成,其所输出的内容是经研发人员智力活动下诞生智力成果的体现,将AI的作品的著作权归于AI的创造者更具有合理依据。例如在前述的(2019)粤0305民初14010号案件,南山区法院根据《著作权法》第11条关于“由法人或者非法人组织主持,代表法人或者非法人组织意志创作,并由法人或者非法人组织承担责任的作品,法人或者非法人组织视为作者”的规定,将涉案文章的作者确定为原告腾讯公司。因此,根据《著作权法》的规定及相关判例可知,当前我国《著作权法》项下的相关AI生成内容按原则归属为AI工具的开发者,用户是否可以将ChatGPT内容进行商业性使用取决于OpenAI的政策。
OpenAI在平台《使用协议》第3(a)条明确约定,“您可以向服务提供输入,并接收服务根据输入产生和返回的输出。输入和输出统称为‘内容’。在双方之间以及在适用法律允许的范围内,您拥有所有输入内容,并且在您遵守本条款的前提下,OpenAI特此向您转让其对输出内容的所有权利、所有权和利益。OpenAI可在必要时使用内容以提供和维护服务、遵守适用法律和执行我们的政策。您对内容负责,包括确保其不违反任何适用法律或本条款。”根据前述约定可知,ChatGPT所输出内容的所有权利和权益均转让给用户所有,用户可以根据其需求自行使用相关输出内容,也并不限制用户进行商业性使用。因此,在遵循OpenAI使用协议的情况下,用户可以自由的使用ChatGPT的内容,这就为公司将其作为生产力工具铺平了道路。
不过,需要强调的是,OpenAI在平台《使用协议》第3(b)条也明确“由于机器学习的性质,输出在不同用户之间可能不是唯一的,服务可能为OpenAI或第三方产生相同或类似的输出。例如,您可能向一个模型提供诸如‘天空是什么颜色’的输入,并收到诸如‘天空是蓝色’的输出。其他用户也可以提出类似的问题并收到相同的回应。由其他用户要求并为其产生的回应不被视为您的内容。”其他用户也有可能根据相同的问题获得相同或类似的输出,并同样获得OpenAI的权利转让,故对于该等内容可能无法完全为某一用户所独占,相关风险还应有提前的认识。
三、商业使用ChatGPT内容需关注的法律风险
ChatGPT为人们带来惊喜的同时,其潜在的法律风险亦值得关注。特别是对于想要将ChatGPT内容应用于商业领域的公司而言,应理性的平衡ChatGPT可能带来的收益及对应的合规成本。根据学界的讨论及我们的相关法律服务经验,我们理解在商业使用ChatGPT内容时可能存在如下法律风险:
1、著作权侵权风险
ChatGPT是基于Transformer架构的语言模型,其依靠巨量的文本数据进行训练并通过监督学习、强化学习以优化输出内容。ChatGPT相关文本数据包括历史、科学、文化、技术等方面,其来源于不同的渠道,在训练过程中ChatGPT需要对数据进行复制、挖掘、学习。但相关数据中的作品并非均处于公有领域,也并非均获得了权利人的授权,由于该等使用行为并不属于《著作权法》中合理使用的情形,如未经授权则存在侵害著作权的法律风险。目前已经有权利人对AI训练数据使用其作品提出了诉讼,如图片提供商华盖创意(Getty Images)起诉AI绘画工具Stable Diffusion的开发者Stability AI,主张Stability AI“非法”从网站上窃取了数百万张图片,构成著作权侵权。此外,美国还有3位艺术家对Stability AI及AI绘画工具Midjourney、艺术家作品集平台DeviantArt都提起诉讼,称这些组织通过在“未经原作者同意的情况下”从网络上获取的50亿张图像来训练其人工智能,侵犯了“数百万艺术家”的权利。
在商业领域,当前ChatGPT的典型应用场景包括智能客服、编程协助、广告设计、文学创作、教育考试等。在该等场景下,ChatGPT所生成的“AI原创”内容有可能与他人在先作品存在较高相似度,甚至有可能构成实质性相似,从而导致相关著作权侵权诉讼。此时根据OpenAI的使用协议,用户应当对使用ChatGPT时输入输出的整体内容负责,且相关内容的权利已经转让给用户。从权利义务的对等性出发,用户虽在使用过程中没有任何过错,依然可能需要承担相应的著作权侵权责任。
2、数据来源合规风险
ChatGPT的运行基于蕴含大量数据的语言模型,OpenAI为ChatGPT提供了互联网上的文本数据包括约3000亿个单词,其数据来自于书籍、新闻文章、博客、社交媒体、百科全书等。但目前ChatGPT仍属于算法黑箱,OpenAI并未对外公示所使用的数据来源,相关训练数据库均获得了授权还存在疑问。
当前数据库整体作为经营者长期投入所形成的竞争性权益受到法律保护,随着AI技术的发展将更成为稀缺资源,知乎平台便因拥有海量优质数据其股价随着ChatGPT的热度同时飙升。因此,如企业通过Open API、爬虫等技术手段,取得AI训练数据,可能被认定为搭便车、构成混淆等不正当竞争行为。此前我国司法实践中已经发生了多起涉及数据抓取的不正当竞争案件,如大众点评诉百度地图使用“用户点评信息”案件、淘宝公司诉美景公司获取“生意参谋”大数据信息案、新浪微博诉脉脉获取使用“微博用户信息”案等,本次《反不正当竞争法(修订草案征求意见稿)》第十八条也将平台的数据权益明确进行保护,相关数据合规的风险将显著提高。故在用户使用 ChatGPT内容时,如果其明确包含了某个平台的未经授权的数据信息,考虑到OpenAI为美国公司,为了创造有利的管辖法院,相关平台可能将用户一并作为共同被告进行起诉,将可能使得用户承担不必要的应诉成本。
3、商业秘密泄密风险
ChatGPT在编程协助、广告设计、文学创作等领域都有非常优异的表现,用户在使用过程中,需要向其提供完整和详细的信息,以获得ChatGPT生产的准确内容。但在商业场景下,用户输入的信息很可能涉及公司商业秘密(如平台底层代码、近期营销计划、公司薪酬体系等信息),导致公司的营业信息、技术信息直接被泄露,相关工作人员在未察觉的情况下就违反了公司保密制度。更重要的是,OpenAI平台并未对用户输入的信息提供保护,其使用协议第3(c)条“为了帮助OpenAI提供和维护服务,您同意并指示我们可以使用内容来开发和改进服务。您可以在这里阅读更多内容,了解如何使用内容来提高模型性能”,如果用户在特别情形下不希望OpenAI使用其输入内容,需要特别向OpenAI进行申请。在实践中已有公司关注到该等风险,例如微软和亚马逊就在2月1日宣布,将禁止公司员工向ChatGPT分享敏感数据,以保护公司的商业秘密。因此,对于商业公司而言,采取相应控制措施,以免出现泄密行为非常重要。
4、内容合规风险
目前,ChatGPT作为聊天AI能满足用户的信息提供需求,在电商、金融等领域,ChatGPT能够结合行业特点构建智能客服系统,具有较为明确的商业需求及实现路径。但ChatGPT在准确性上依然存在较大问题,OpenAI也认可ChatGPT存在局限性。
根据OpenAI的说明,尽管OpenAI正在努力使ChatGPT拒绝用户不合理的请求,但是ChatGPT还是不可避免地可能会存在着算法歧视和生成不良信息的风险,生成的文本可能会带有脏话、仇恨、性别与种族歧视言论,也可能生成极度暴力、血腥、色情等违反法律以及公序良俗的内容。因此,如果企业用户使用ChatGPT提供智能客服服务时,其生成的内容可能虚假或具有冒犯性,该等内容将直接违反《互联网信息服务管理办法》《网络信息内容生态治理规定》对内容管理的规定,引发直接的法律责任,甚至因此导致不必要的舆论风险,影响公司的企业形象及商誉。
5、网络使用风险
根据OpenAI平台的使用政策,目前ChatGPT并未向中国用户开放,国内用户需要使用虚拟专用网络(VPN)通过国外IP地址才能访问ChatGPT体验相关服务。而根据《计算机信息网络国际联网管理暂行规定》第六条、第十条及《工业和信息化部关于清理规范互联网网络接入服务市场的通知》规定,任何单位和个人不得自行建立或者使用其他信道进行国际联网,未经电信主管部门批准,个人、法人和其他组织不得自行建立或租用专线(含虚拟专用网络VPN)等其他信道开展跨境经营活动。因此,如果需要使用虚拟专用网络应预先向基础电信部门租赁国际专线,如果用户使用没有经过合法许可的国外网络服务,将违反我国《计算机信息网络国际联网管理暂行规定》的相关规定,可能面临停止联网、警告、15000元以下的罚款及没收违法所得的行政法律责任。对此,在公司将ChatGPT内容投入商业使用前,还应考虑预先满足网络合规条件。
6、行政监管风险
当前我国还没有对AIGC行业进行特别立法规范,不过在行政层面,主管机关2022年先后出台《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等两部监管条例。《互联网信息服务算法推荐管理规定》第二条明确,算法推荐技术是指利用生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术向用户提供信息。《互联网信息服务深度合成管理规定》第二十三条规定,深度合成技术是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术。因此,在理论上,通过API接口调用在国内提供ChatGPT服务符合以生成合成算法制作文本,应遵循前述法规的相关义务。但目前对于相关主体应承担何种合规义务,规定并不足够明确,可能存在一定争议。
我们理解,Chat GPT作为OpenAI公司依据美国法律和价值观开发的AI工具,其算法机制、安全机制没有经过我国主管机关的评估审核。鉴于ChatGPT已经表现出的技术能力及强大影响力,我们不排除日后主管机关可能认为其构成“具有舆论属性或者社会动员能力的深度合成服务提供者”,要求有关主体需依法履行备案义务,并要求公示算法的基本原理、目的意图和主要运行机制等。如届时未能履行该等义务,可能将面临相应的行政处罚责任。
四、商业使用ChatGPT内容的合规建议
如前所述,目前国内公司可以较为自由对ChatGPT内容进行商业使用以作为生产力工具,但同时应关注其可能潜在的法律风险,注意履行相应合规义务。对此,我们结合法律规定、司法实践及我们的法律服务经验,对相关公司提出如下合规管理建议:
1、公司应租赁使用国际专线,且仅用于内部办公。网络连接问题是将ChatGPT内容落地进行商业使用的基本前提,对此公司应履行相应的申请手续,租赁使用合规的国际专线,不得私自使用未经备案的网络服务。
2、向员工公开传达保密义务,及时更新企业保密制度。为了降低在使用ChatGPT工具出现泄密问题,我们建议公司应通过电子邮件等公告方式定期提醒公司员工的保密义务,明确应保密的具体对象。同时如有必要,我们建议公司应及时更新企业管理制度,对于未能遵循管理制度的员工及时进行教育惩戒,完善公司的商业秘密保护体系。
3、对ChatGPT内容的使用及时公示。如果一家公司使用 ChatGPT 为用户提供服务,应向用户明示收集使用了哪些数据,生成提供了哪些内容并可以提示用户ChatGPT内容可能存在缺点及不足,保障用户的知情权及选择权。
4、采取措施对生成内容进行控制。ChatGPT生成的内容既取决于其训练的语料库,也取决于用户提问的方式。如公司需要将ChatGPT投入文学创作,应通过可行措施来限制侵犯现有作品的著作权,避免定义特定的作品的输出内容或作品输出风格,例如应使用“请以甄嬛历史原型为背景写一部言情小说”,而不应使用“请以《甄嬛传》为背景写一部言情小说”,应使用“请站在中立角度对俄乌战争进行评论”,而不应使用“请以胡锡进的语言风格对俄乌战争进行评论”。
5、对ChatGPT的输出结果进行监测及引导。考虑到目前ChatGPT内容仍存在准确性问题,我们建议如公司将其用于智能客服系统时,应对其内容进行监测及控制。一方面提示用户相关回复内容可能真实性、准确性方面存在偏差,另一方面应建立禁止问题目录,如发现用户询问特定问题时,应当引导用户直接求助人工客服。
6、谨慎将ChatGPT在社科领域、社会生活领域使用。目前ChatGPT在科学领域、技术领域的回答较为擅长,能够给予用户较大的帮助及协助。但在社科领域、社会生活领域中,由于训练数据的不足,常常出现较为明显的错误,且即使用户反馈其错误依然无法短期内自行修正。因此,为了避免该等错误带来的风险,我们建议公司谨慎的在社科领域、社会生活领域直接使用ChatGPT的相关内容,如需使用应再次核实出处,确保有切实事实依据。
- 相关领域
- 争议解决