当前位置:全影学校网 资讯列表 G-AI 服务提供者间接侵权责任的承担与限制

G-AI 服务提供者间接侵权责任的承担与限制

作者:全影网友  时间:2020-01-04 15:59:38
特别提示:本文为生成式人工智能研究的最新成果之一,全文超过17000字,认真读完大约需要至少45分钟,请合理安排阅读时间。 作者简介:杨显滨,河南信阳人,上海交通大学博士,中国人民大学博士后,华东政法大学中国法治战略研究院教授,华东政法大学经天学者;兼任上海交通大学国家海洋战略与权益研究基地研究员、南京大学住宅政策与不动产法研究中心研究员。 以ChatGPT为代表的生成式人工智能(Generative AI,G-AI)不具备民事主体资格,生成式人工智能造成他人损害的,服务提供者应当承担侵权责任。服务提供者兼具内容生产者与平台管理者的双重身份,负有审核等安保义务。其违反安保义务,原则上应当承担具有间接侵权责任属性的相应的补充责任,可以行使追偿权。但在知道或者应当知道的情况下,服务提供者应当承担连带责任,乃至惩罚性赔偿。属于来源非法非法生成的、输入信息非法非法生成的且服务使用者传播侵权内容造成第三人损害的,服务提供者因违反双重审核义务,应禁止追偿。同时,应类型化设置避风港规则适用的责任豁免规则、形塑选择性适用著作权合理使用规则的阻却违法事由认定机制及构筑有限适用个人信息合理使用规则的责任豁免制度,系统化构建服务提供者间接侵权责任的限制规则。 2022年11月30日,美国人工智能(AI)研究公司Open AI推出了对话机器人应用ChatGPT(Chat Generative Pre-trained Transformer),在短短两个月的时间内,该应用的月活用户突破一个亿,在文本、图片、视频、音频、代码等方面的生成能力可见一斑。在文本方面,生成式人工智能(Generative AI,G-AI)以ChatGPT、BERT、XLNet、CTRL、文心一言、讯飞星火等大语言模型(Large Language Models,LLM)为主要代表,主要通过语料库数据、实时抓取数据、服务使用者输入信息对人工智能模型进行训练,经过模型的预训练阶段、优化模型参数阶段、人类反馈阶段,生成式人工智能最终形成可供服务使用者使用的大语言模型。在图像方面,生成式人工智能主要包括DALLE、DALLE2、商汤秒画SenseMirage、Midjourney、Stable Diffusion等模型,可以根据文本提示生成高质量的图像和艺术作品。然而,基于部分训练数据存在侵权内容、人工智能模型的固有缺陷、人工智能滥用等因素,个人利益乃至公共利益保护面临巨大挑战。我国先后出台《互联网信息服务算法推荐管理规定》(以下简称《算法推荐管理规定》)、《互联网信息服务深度合成管理规定》(以下简称《深度合成管理规定》)、《生成式人工智能服务管理暂行办法》(以下简称《人工智能暂行办法》)等规章,企及消弭上述问题,但面对生成式人工智能生成机理的复杂性,上述规范心有余而力不足。 由此引发的问题包括:一是生成式人工智能生成内容构成间接侵权(第三人介入型侵权)的,谁是侵权主体,是生成式人工智能抑或服务提供者,有待进一步明确。需要说明的是,本文主要以间接侵权为中心展开,直接侵权(如非第三人介入型侵权)非论证要点。二是服务提供者是否是网络服务提供者,若答案是肯定的,与一般网络服务提供者的区别是什么,负有何样的安保义务,违反安保义务承担相应的补充责任后能否追偿。三是服务提供者违反安保义务是否仅承担相应的补充责任,有无连带责任、惩罚性赔偿责任适用的空间;后两种责任形态如果有适用可能,有没有类型化处理的必要。四是为了保护以ChatGPT为代表的生成式人工智能产业,可否对服务提供者的责任进行适当限制,具体包括哪些情势,如何进行具体的制度建构与设计,急需展开全面论述。在直击上述问题的过程中,何以实现《深度合成管理规定》《人工智能暂行办法》等规章与《中华人民共和国民法典》(以下简称《民法典》)、《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)、《中华人民共和国著作权法》(以下简称《著作权法》)等法律的协调适用,亦是迫在眉睫的现实问题。因此,研究生成式人工智能服务提供者间接侵权责任的承担与限制,具有重要的理论与实践意义。 一、生成式人工智能侵权责任主体的认定 现有生成式人工智能处于弱人工智能阶段,恐难取代服务提供者成为民事主体,享有权利,履行义务。生成式人工智能服务提供者提供的是内容服务,不同于一般意义上的具有平台媒介性质的网络服务提供者,也不是技术支持者抑或内容提供者,兼具内容生产者与平台管理者的双重身份。 (一)生成式人工智能的民事主体资格反思 生成式人工智能侵权案件频发的当下,人工智能是否可以成为侵权责任主体存在争议,现有立法则保持沉默。生成式人工智能成为侵权责任主体的前提是具备法律主体资格,学界对此观点不一。 有学者认为,生成式人工智能具备享有权利和履行义务的意志能力,即意识和选择或反思调整的能力,可以赋予其法律主体资格,即肯定说。罗马法上,所有具有合理意志的人自然是法律主体,意志能力对民事权利能力的认定具有决定性作用,进而主宰民事权利义务关系及民事责任承担。但生成式人工智能仍处于弱人工智能阶段,不具有自由表达诉求的能力,不应视为法律主体。在李与刘侵害作品署名权、信息网络传播权纠纷案(我国AI生成图片著作权第一案)中,法院认为,生成式人工智能模型不具备自由意志,不是法律上的主体。彭诚信教授认为,除意志能力要件外,人工智能是否应该存在作为法律主体予以承认,重要的一个要素是考虑其是否能够独立承担法律责任,尤其是民事赔偿责任。也即,物质性要件。肯定说主要包括电子代理人说、电子人说、有限人格说和人格拟制说。电子代理人说支持者认为,AI机器能够被看作是一个雇员,因为它提供的服务主要是由程序员或所有者使用的。代理人行使代理权的法律效果直接归属于被代理人,固然可以解决物质性要件问题,但生成式人工智能等人工智能不具备意志能力,对自己的行为没有道德判断能力,不具备意志能力要件。电子人说拥护者宣称,电子人是拥有人类智能特征,具有自主性,以电子及电子化技术构建的机器设备或系统。电子人说力争通过自主性论证,解决意志能力要件问题。即便如此,电子人如何满足物质性要件不得而知。秉持有限人格说的学者坚称,人工智能虽然具有法律人格,但这种人格是有限的,并非完全的法律人格。可生成式人工智能等人工智能在什么情况下享有法律人格,是否与自然、法人、非法人组织存在差异,有待进一步澄清。支持人格拟制说的学者主张,应当将人工智能拟制为像法人那样的主体。法人的意志能力则可以归结到由自然人构成的法人机关的意志,实际上根源还在于自然人。尽管其本身没有意志与激情,却可以将人的意志和激情归属于它。汉斯凯尔森认为,当一个实体是法律规范的实体,这个实体就是法律意义上的人,享有民事主体资格。鉴于此,生成式人工智能等人工智能的意志能力问题得以消解,但没有责任财产又如何切合物质性要件值得商榷。 综上,以电子代理人说、电子人说、有限人格说和人格拟制说为代表的肯定说难以自圆其说,应予摒弃,奉行否定说。此外,王利明教授认为,自然人即生物学意义上的人,是基于出生而取得民事主体资格的人。据此,出生是自然人具有民事权利能力,获取民事主体资格的起点,死亡是终点,和意志能力无关。意志能力在我们看来并不是界定民事主体的本质条件,即使生成式人工智能具备意志能力也不能就此认定其具有民事主体资格。另外,从主体要件的物质性要求来说,至少在当下人工智能体尚没有取得主体资格的物质性要件。职是之故,应依循否定说否认生成式人工智能的法律主体资格。2020年欧盟《关于人工智能系统运行的责任立法倡议》(Draft Report with Recommendations to the Commission on a Civil Liability Regime for Artificial Intelligence,DRRCCLRAI)B部分第5条指出,人工智能系统既没有法律人格,也没有人类良知,它们的唯一任务就是为人类服务。以ChatGPT为代表的生成式人工智能同样如此,至少目前还不能匆忙让它成为一个法律上的人。 (二)生成式人工智能服务提供者作为侵权责任主体的确认 既然生成式人工智能不具有民事主体资格,此时须诉诸生成式人工智能服务提供者。生成式人工智能以语料库收集数据、实时抓取数据或服务使用者输入的文本、图片、声音、视频等为原料,对服务提供者设计的模型进行训练,生成服务使用者需要的深度合成内容。在此过程中,生成式人工智能的工具性显露无遗,即使具有一定自主性,仍受人类控制。美国《国家人工智能倡议》(National Artificial Intelligence Initiative,NAII)草案第2部分第1条亦指出,人工智能是一个工具。欧盟《人工智能白皮书追求卓越和信任的欧洲方案》(White Paper on Artificial IntelligenceA European Approach to Excellence and Trust,WPAI-EAET)前言(Introduction)部分强调,人工智能是数据、算法、算力结合形成的技术***体。以ChatGPT为代表的生成式人工智能不过是服务提供者操纵的提线木偶,收集何种数据、设计哪类模型、优化哪些模型参数、如何回应人类反馈等皆取决于服务提供者,恰是这一过程主宰着生成式人工智能根据服务使用者输入的提示词(prompts)生成何种内容。故生成内容引发侵权的,相对于无民事主体资格的生成式人工智能,由服务提供者承担损害赔偿责任更具合理性。 此外,基于生成式人工智能生成内容造成他人损害与服务提供者违反审核等安保义务的不作为之间的因果关系,视服务提供者为侵权责任主体并无不妥。通说认为,我国侵权责任构成要件中因果关系的认定采用的是相当因果关系说。相当因果关系的判断主要分为两个步骤,即事实上因果关系的判断与法律上因果关系的判断。关于相当因果关系的判断基准,王泽鉴教授认为,无此行为,虽必不生此损害,有此行为,通常即足生此种损害者,是为有因果关系。无此行为,虽必不生此损害指向加害行为与权利受到侵害的后果之间的因果关系,即事实上因果关系的判断。有此行为,通常即足生此种损害者指向权利受到侵害的事实与被害人所受损害之间的因果关系,即法律上因果关系的判断。事实上因果关系的判断主要有删除说(the elimination theory)和代替说(the substitution theory)两种学说。删除说亦即删除加害人的不法行为后,检验被害人的损害是否仍然会发生,若结果不能发生,或是只能以一种完全不同的方式发生,则存在因果关系。反之,则不存在因果关系。代替说假定行为人在现场且实施了合法行动,其他条件完全不变,事件的发生是否改变。通说认为,应当采用删除说。 以ChatGPT为例,生成内容引发侵权造成他人损害的,应从事实上因果关系和法律上因果关系两个角度,判断ChatGPT服务提供者是否满足侵权责任构成要件中的因果关系。事实上因果关系判断层面,依据《民法典》(第1195条至第1196条、第1198条)、《数据安全法》(第27条和第29条)、《深度合成管理规定》(第10条、第11条和第16条)、《人工智能暂行办法》(第4条第5项、第12条和第14条)等规范性文件,ChatGPT服务提供者对数据、模型、模型训练、生成内容等负有审核等安保义务,因过失违反安保义务,造成他人人格权、著作权等损害的契合损害要件。受害人权利受到侵害是因加害行为(不履行安保义务的不作为行为)而发生,成立事实上的因果关系。法律上因果关系判断层面,如果这个事实在通常情况下都可能发生同样的损害结果,那么,这个行为与损害结果之间就有因果关系。ChatGPT服务提供者违反审核等安保义务(加害行为)侵害他人人格权、著作权(权利遭受侵害的事实)通常与损害具有相当性。由此,谛视ChatGPT服务提供者违反审核等安保义务引发侵权责任的因果关系判断中,事实上的因果关系和法律上的因果关系判断皆不存在龃龉。在具备违法行为、过错、损害等侵权责任构成要件的情况下,违法行为与损害之间具有相当因果关系,ChatGPT服务提供者可以成为侵权责任主体。 (三)生成式人工智能服务提供者兼具内容生产者与平台管理者的双重身份 《深度合成管理规定》第23条第1款规定,深度合成技术,是指制作文本、图像、音频、视频、虚拟场景等网络信息的技术,故深度合成服务提供者是网络服务提供者。生成式人工智能作为深度合成的一种,采用网络API方式为公众提供服务,其服务提供者亦应界定为网络服务提供者。依循《民法典》第1197款,生成式人工智能服务提供者负有审核等安保义务;未尽到安保义务,造成他人损害的,应当承担相应的补充责任。证成生成式人工智能服务提供者是网络服务提供者后,有必要结合生成式人工智能的运行机制及服务提供者对生成内容的干涉程度与控制力,剖析服务提供者的双重身份。 一是生成式人工智能服务提供者是内容生产者。以ChatGPT为例,生成内容产生的每一个环节均受制于服务提供者。具体而言,语料库数据、实时抓取数据、服务使用者输入信息的选择及不同语种数据信息的选取等取决于ChatGPT服务提供者的价值取向。微调阶段,人类标注人员扮演用户和代理进行对话,产生对话样本并对回复进行排名打分,将更好的结果反馈给模型,以使生成内容符合人类意图、知识观和价值观。标注人员通常为ChatGPT服务提供者的工作人员,抑或是接受服务提供者的委托从事数据标注的自然人、法人或其他组织。前者,依据《民法典》第1191条第1款,用人单位的工作人员因工作造成他人损害的,由用人单位对外承担侵权责任。后者,标注人员仍然属于受托人的角色时,委托人对受托人享有实际控制力。所以,ChatGPT服务提供者对内容生成过程具有不可或缺的控制力,应纳入内容生产者范畴。同时,ChatGPT服务提供者控制算法模型的诸多底线标准,主导内容生成。《深度合成管理规定》第10条第2款、《算法推荐管理规定》第8条、《人工智能暂行办法》第8条、欧盟《人工智能法案》(AI Act,AIA)第5条第1项关于特征库标准、规则和程序算法模型标注规则AI系统的规定可以佐证。因此,以ChatGPT为代表的生成式人工智能服务提供者对算法模型具有控制力,把控以大语言模型为基础的内容生成,应界定为内容生产者。 二是生成式人工智能服务提供者是平台管理者。庞大的用户基数致使ChatGPT可以在较大范围内输出价值观念,甚至包括仇恨、歧视性内容。2016年微软公司研发的聊天机器人Tay就曾因大量有害输入而成为种族歧视者。这意味着虚假信息等引发的人格权侵权、著作权侵权问题加剧,生成式人工智能演变为生成侵权内容这一危险的开启者。依循危险控制理论,服务提供者应当承担平台管理者责任防控、减少危险。这与《深度合成管理规定》关于建立健全管理制度(第7条)、制定和公开管理规则与依法依约履行管理责任(第8条)、加强深度合成内容管理(第10条第1款)、落实安全管理责任(第13条)、加强训练数据管理(第14条第1款)、加强技术管理(第15条第1款)等规定的立法目的是一致的。也即,通过课以生成式人工智能服务提供者上述平台管理等安保义务,督促其加强平台管理,减少生成内容对他人权益的侵害。德国学界称此类网络服务提供者为内容框架提供者(Rahmen-Content-Provider),强调其参与内容形成,并对内容负有一定的主动注意义务。欧盟《人工智能法案》第14条第2款指出,服务提供者应防止或最大程度地降低健康、安全或基本权利风险,该条第4款对审核义务的具体操作措施进行了详细规定,《网络信息内容生态治理规定》第7条、《人工智能暂行办法》第19条及《深度合成管理规定》第10条亦有类似规定。职是之故,生成式人工智能服务提供者履行审核等安保义务即为履行平台管理职责,其平台管理者身份毋庸置疑。 《民法典》第1194条至第1197条指称的网络服务提供者主要是具有平台媒介性、充当纯粹信息传播平台或渠道的提供者,我国司法实践亦持此观点。生成式人工智能服务提供者除扮演媒介者角色外,还负责平台管理,主导内容生成,兼具内容生产者与平台管理者的双重法律身份。为了规制生成式人工智能这类新型网络服务提供者,可以对《民法典》第1194条至第1197条中的网络服务提供者进行扩大解释,同时根据生成式人工智能的特性适当调整现有责任认定与承担制度。 二、生成式人工智能服务提供者间接侵权责任承担的体系化构筑 生成式人工智能服务提供者违反审核等安保义务,造成他人损害的,原则上应当承担相应的补充责任。但是,考虑到生成式人工智能的特殊性,服务提供者在间接侵权责任承担及追偿权行使方面与一般网络服务提供者存在差异,故应通过类型化处理作出不同于一般网络提供者的责任承担体系设计。 (一)生成式人工智能服务提供者相应的补充责任与追偿权行使机制构造 生成式人工智能服务提供者属于网络服务提供者范畴,依据《民法典》第1195条和第1196条,负有安保义务。《数据安全法》第27条和第29条即是对生成式人工智能服务提供者等数据处理者安保义务的回应。依循《民法典》第1195条第1款,服务提供者未主动采取删除、屏蔽、断开链接等必要措施的,应当承担相应的补充责任。《深度合成管理规定》《人工智能暂行办法》是国家网信办发布的规章,其要求服务提供者履行审核等安保义务是《民法典》第1195条和第1196条必要措施的具体化。《深度合成管理规定》第10条中的进行审核建立健全用于识别违法和不良信息的特征库依法采取处置措施,第11条中的建立健全辟谣机制及第16条中的采取技术措施添加不影响用户使用的标识等可以佐证。生成式人工智能作为深度合成的一种表现形式,《人工智能暂行办法》第12条和第14条亦有类似规定。对于违反安保义务的间接侵权责任,《深度合成管理规定》《人工智能暂行办法》皆没有明确指向《民法典》,但可以经由前者第22条第1款及后者第21条第1款中的法律引致适用《民法典》。如因大语言模型本身存在缺陷而生成虚假信息,造成他人损害,且生成式人工智能服务提供者违反安保义务的,应当依据《民法典》第1198条承担相应的补充责任。 模型预训练阶段,服务提供者所使用的海量数据主要包括语料库数据、实时抓取数据和服务使用者输入信息三种。基于生成式人工智能服务提供者侵权责任的具体形态,本节将训练数据分为两类:第一类是语料库获取数据与实时抓取数据。主要表现为来源合法非法生成和来源非法非法生成两种侵权形态。一是来源合法非法生成,服务提供者未尽到对生成内容的审核等安保义务的,应适用《民法典》第1198条第1款,承担直接侵权损害赔偿责任。尤其需要回应的是,因服务使用者传播造成第三人损害的,适用该条第2款,服务使用者承担直接侵权责任。其不明或无赔偿能力的,生成式人工智能服务提供者承担间接侵权责任,即相应的补充责任。二是来源非法非法生成的,且生成式人工智能服务提供者未尽到审核等安保义务的,因为此时依然没有第三人介入,参照《民法典》第1198条第1款承担侵权损害赔偿责任即可。譬如,没有依照《深度合成管理规定》第16条规定采取技术措施添加不影响用户使用的标识。美国《国家人工智能倡议法案》(National Artificial Intelligence Initiative Act,NAIIA)第3章第1条第1款第3项亦有类似规定。届时,服务使用者传播非法生成内容造成第三人损害的,可以对生成式人工智能服务提供者实施相应的补充责任加惩罚性赔偿。本章第三节将就此展开论述,在此不赘。第二类是服务使用者输入数据。表现为输入信息合法非法生成和输入信息非法非法生成两种侵权形态。一是输入信息合法非法生成,原则上按照《民法典》第1198条第1款无第三人介入型侵权的规定处理。服务使用者传播造成第三人损害的,且服务提供者违反审核等安保义务的,承担相应的补充责任足矣。二是输入信息非法非法生成的,服务使用者是直接侵权人,生成式人工智能服务提供者原则上仅承担违反双重审核等安保义务的顺位责任。但与违反单一审核义务相比,其过错更大,可以适当加重责任承担份额。服务使用者传播侵权内容造成第三人遭受损害的,参照前者第二种情况在补充责任的基础上实施惩罚性赔偿,此处不再展开。综上所述,在服务使用者传播侵权内容,造成第三人损害的情形下,生成式人工智能服务提供者承担侵权责任的形态表现为来源合法非法生成、来源非法非法生成、输入信息合法非法生成、输入信息非法非法生成四种。遵循《民法典》第1198条第2款,生成式人工智能服务提供者承担相应的补充责任后,可以向直接侵权人进行追偿。第一、三种情况下,生成式人工智能服务提供者违反的是单一审核等安保义务,对损害结果发生的原因力相对较小,赋予其追偿权毋庸置疑。第三人因为距离损害更近,属于终局责任人,安全保障义务人可以向其追偿。然而,第二、四种境遇下,生成式人工智能服务提供者违反的是双重审核等安保义务,即非法数据信息的第一重审核义务和非法生成内容的第二重审核义务,对损害结果发生的原因力较大,可以禁止其行使追偿权。 (二)生成式人工智能服务提供者连带责任的类型化建构 OpenAI公司回答关于ChatGPT的常见问题时明确指出,ChatGPT可能产生有害指令或有偏见的内容。ChatGPT模型是基于整个互联网的***息进行训练,这既决定了它的能力,也决定了其局限性,互联网内容存在的问题都可能映射在模型中。据此,不宜随意课以服务提供者连带责任,应以知道或者应当知道为限。此时服务使用者利用服务提供者提供的服务侵害他人合法权益,服务提供者未采取必要措施的,应当承担连带责任。 一是生成式人工智能服务提供者知道境遇下的连带侵权责任承担机制建构。文义解释下,《人工智能暂行办法》第14条第1款中的发现应包括《民法典》第1195条第1款中权利人通知及自行发现等多种情形。该款起源于《民法典》第1195条第1款,是对后者的具体化呈现。提供者发现违法内容的或发现使用者利用生成式人工智能服务从事违法活动的,未采取模型优化、停止生成、消除等必要措施的,适用《人工智能暂行办法》第14条引致《民法典》第1195条,生成式人工智能服务提供者应对损害的扩大部分与该网络用户承担连带责任。适用《民法典》第1197条,亦可得出同样结论。通知自行发现等发现形态等同于生成式人工智能服务提供者知道,这是其承担连带责任的起点和法理基础。知道是一种主观状态,服务提供者未采取必要措施,意味着放任侵害结果的发生。发现违法内容或违法活动未采取必要措施的,服务提供者的身份从网络侵权责任的中间者转变为网络侵权责任的共同侵权者,相应的补充责任转化为连带责任。有学者认为,此种违反安保义务的不作为侵权转变为不作为的帮助侵权。在刘静雯、浙江天猫网络有限公司等侵害作品信息网络传播权纠纷案中,法院即认为,网络服务提供者是否承担连带责任,主要取决于可否构成帮助行为。职是之故,生成式人工智能服务提供者发现违法内容或违法活动,未采取必要措施的,应就发现之时起的损害(损害扩大部分)与服务使用者承担连带责任。 二是生成式人工智能服务提供者应当知道境遇下的连带侵权责任承担机制建构。生成式人工智能服务提供者未尽到安保义务对模型进行参数优化与微调,抑或没有解决数据歧视或来源不合法等问题,造成他人损害的,应承担相应的补充责任。然而,相应的补充责任不能成为生成式人工智能服务提供者的免死金牌,红旗规则一定程度上可以说明这一点。生成式人工智能服务提供者在审核输入与获取数据、履行人工智能模型训练与优化等安保义务的过程中,已然触及侵权内容却没有采取必要措施的,即未注意到一个合理的谨慎人(reasonbly prudent person)会注意到的情况,可以视为应当知道。依循《人工智能暂行办法》第21条第1款可以引致适用《民法典》第1197条,要求生成式人工智能服务提供者承担连带责任。责任分担上,考虑到应当知道是指推定的知道,服务提供者可能并非真的知道,在内部责任分担上可以适当减轻服务提供者的责任承担份额。具体可以作出如下制度设计: 连带责任除非法律有特别规定,是以实际损害为限的。服务提供者因应当知道承担连带责任的,责任范围辐射所有实际损害。按照《民法典》第178条第2款,服务提供者承担连带责任后,可以根据各自责任大小确定责任份额。但是,知道主要表现为故意,是一种确切的状态。应当知道一般被归入过失的范畴,属于应当预见而没有预见的主观心理状态。前者的可问责性显然大于后者。且基于数据量大、机器学习、网络攻击等因素,生成式人工智能服务提供者对训练数据、人工智能模型、生成内容等的影响和控制可能失灵。故在内部责任的分担上,法院可以适当减少生成式人工智能服务提供者的责任份额。换句话说,适当加重直接侵权人的责任,对其实施惩罚性赔偿。 (三)生成式人工智能服务提供者惩罚性赔偿制度设置 生成式人工智能生成内容构成侵权的,依循本章第一节的划分标准,主要呈现出来源合法非法生成、来源非法非法生成、输入信息合法非法生成、输入信息非法非法生成四种。本节主要聚焦于第二、四种情况下服务使用者再传播行为引发的惩罚性赔偿问题,其他情形非论证要点。第二、四种情况下,训练数据可能存在侮辱、诽谤、歧视他人的言论及构成对他人作品的不当使用、个人信息处理没有获得知情同意等。生成式人工智能生成的侵权内容构成对原侵权内容的传播,服务使用者公开、分享或传播侵害他人著作权、人格权等生成内容的,构成再传播行为。惩罚性赔偿之功能在于惩罚和制裁严重过错行为,基于侵权内容再传播行为的严重危害性,可以考虑对生成式人工智能服务提供者实施惩罚性赔偿。另,如前所述,第二、四种境遇中,生成式人工智能服务提供者违反了《深度合成管理规定》第10条第1款规定的双重审核义务对具有侵权属性的数据信息的第一重审核义务和对非法生成内容的第二重审核义务,所谓罪大恶极。网络平台提供者最终责任份额,应当根据其过错程度和行为的原因力确定。若仅承担相应的补充责任,显然有失公允。生成式人工智能服务使用者难以确定或无赔偿能力者,服务提供者除承担与其过错程度和原因力大小相当的相应的补充责任,还需承担额外的惩罚性赔偿,禁止追偿。具体理由如下: 一是惩罚性赔偿制度的适用范围可以扩大到重大过失。检视《民法典》第1185条、第1207条、第1232条关于惩罚性赔偿的规定,均使用故意明知限定主观状态。然而,以美国为代表的惩罚性赔偿制度的适用范围包括故意案件,也涉及重大过失案件。也就是说,除故意外,一般过失存在加重情节时也有适用可能,此种被加重的过失称为重大过失(gross negligence)或鲁莽(recklessness)。美国《侵权法重述第二版》第908条第1款指出,惩罚性赔偿可以针对因被告的邪恶动机或他鲁莽地无视他人的权利而具有恶劣性质的行为做出。此行为与故意行为非常相似,因此应当承担同样的责任。王利明教授指出,如果行为人具有重大过失,则可能被视为故意侵权行为,并施加惩罚性赔偿。英国最高法院认为,惩罚性赔偿制度可以适用被告玩世不恭地无视原告权利、为牟取利益而算计的侵权行为。目光回溯到惩罚性赔偿制度适用的上述第二、四种情况,服务提供者违反双重审核义务的行为属于鲁莽地无视他人的权利无视原告权利的行为,可以实施惩罚性赔偿。 二是生成式人工智能基于既有侵权内容生成新的侵权内容属于鲁莽地实施了间接侵权行为。语料库数据、实时抓取数据、服务使用者输入的信息合法,生成式人工智能服务提供者未尽到审核等安保义务导致生成内容构成侵权的,可以视为违反美国《国家人工智能倡议法案》第4条第1款(a)项规定的旨在防止发生损害的注意义务,可视为一般过失。我国《民法典》第1195条至第1198条也有明确规定。语料库数据、实时抓取数据、服务使用者输入的信息业已构成侵权,生成式人工智能服务提供者未尽到审核等安保义务导致侵权发生的,在先过失行为(违反第一重审核义务,导致数据来源不合法等)与在后过失行为(违反第二重审核义务,引发生成侵权内容)的叠加,属于鲁莽地实施了间接侵权行为,理应课以惩罚性赔偿。依循美国《侵权法重述第三版:实体与精神损害责任》第2节(a)(b),如果行为人知道其行为造成的伤害风险且能够消除或降低该风险的预防措施所涉及的负担与该风险的严重程度相比如此轻微则该行为人莽撞地实施了该行为。服务提供者作为企业法人,设有专门的风险控制部门和法务部门,所以对其非法处理个人信息造成的可能伤害是知道的。且,既然法律施以服务提供者采取必要措施的安全保护义务,即意味着采取必要措施付出的成本一般是小于对人格权、著作权等造成的可能损害。由此,生成式人工智能服务提供者违反第一重审核义务与违反第二重审核义务相互叠加,属于莽撞地实施了该行为,可以实施惩罚性赔偿。欧盟《人工智能法案》第72条第1款(a)项规定,决定处罚时应适当考虑侵权行为的性质,严重性,持续时间及其后果。生成式人工智能服务提供者违反双重审核义务情节严重,引入惩罚性赔偿亦有其妥适性。 三、生成式人工智能服务提供者间接侵权责任限制制度的完善路径 生成式人工智能服务提供者违反审核等安保义务,可能存在的责任形态包括相应的补充责任、连带责任及惩罚性赔偿责任,尤其是后两种责任形态在一定程度上加重了服务提供者的间接侵权责任。基于衡平生成式人工智能服务提供者与服务使用者利益,保护生成式人工智能产业的角度考量,应按照避风港规则、著作权合理使用规则及个人信息合理使用规则,适当限制服务提供者的间接侵权责任。 (一)避风港规则适用的责任豁免规则 《民法典》第1195条第2款设置了避风港规则,但只有满足通知删除规则,网络服务提供者才可能免除法律责任,顺利驶入避风港。《深度合成管理规定》《人工智能暂行办法》作为国家网信办规章,其未尽事宜可以参照适用《民法典》。也即,避风港规则对以ChatGPT为代表的生成式人工智能仍然适用。《民法典》第1195条第1款中的等字措辞表明,必要措施还包括《深度合成管理规定》第10条第3款的警示、限制功能、暂停服务、关闭账号等处置措施、第11条的辟谣措施、第14条的不予上架下架等处置措施及《人工智能暂行办法》第14条的停止生成、停止传输、消除等处置措施等等。然而,生成式人工智能服务提供者不同于一般意义上的网络服务提供者,《民法典》设立的避风港规则不能照搬,应根据生成式人工智能的特性进行适当调整。可以引入面向未来的审查义务(knftige Kontrollpflicht),也有学者称之为通知取下扫描规则。面向未来的审查义务是德国联邦最高法院在eBay案中确立的,法院认为,被告不仅必须在发现对未成年人有害的提议后立即予以阻止。它还有义务防止今后再发生此类违法行为,例如使用过滤器或仔细检查已经提供索引作品的提供商。欧盟《数字单一市场版权指令》(Directive on Copyright in the Digital Single Market,DCDSM)第17条第4款(C)项规定,在收到权利人提供的充分证实的通知后,迅速采取行动,禁止访问或从其网站上删除所通知的作品或其他主题,并根据(B)项尽最大努力防止其未来上传,课以网络服务提供者面向未来的审查义务。显然,这有异于《民法典》第1195条第2项以通知取下为中心的避风港规则,事实上是加强版的避风港规则通知取下扫描规则,也称面向未来的审查义务。即在以后针对同一侵权主体或同样侵权客体或同样侵权内容负有主动审查义务。《人工智能暂行办法》第14条规定的采取模型优化训练等措施进行整改即是一种面向未来的审查义务。但投射到生成式人工智能服务提供者,应当进行类型化处理。 一是语料库数据、实时抓取数据、服务使用者输入信息业已构成侵权且生成内容也构成侵权的,生成式人工智能服务提供者收到权利人侵权通知的,负有面向未来的审查义务。全面履行该审查义务的,免除侵权责任。欧盟《算法的可问责和透明的治理框架》(A Governance Framework for Algorithmic Accountability and Transparency,GFAAT)在结论部分指出,为获得对算法决策过程的整体了解,方法包括:设计/代码审查、输入数据分析、输出结果的统计分析、输入内容的敏感性分析。即要求服务提供者对语料库数据、实时抓取数据、服务使用者输入信息进行审查,防止以不合格原料训练模型而侵害他人著作权、人格权等合法权益。生成式人工智能服务提供者以问题原料为训练数据,生成服务使用者希望获取的相关内容,负有的审核义务应大于合格原料。假如遵守避风港规则消除生成内容即可免除侵权责任,有助长侵权、滥用权利之嫌。消除措施对应《民法典》第1195条第1款的删除,属于事后干预,规制目标是救济于水火。通知取下扫描规则要求对任一服务使用者再次输入相同或类似的提示词或已经生成的任一相同或类似内容,甚至原料本身,生成式人工智能服务提供者都必须进行扫描,全面审核,适当采取停止生成、停止传输、消除等处置措施,最大限度减少对权利人可能造成的侵害。 二是语料库数据、实时抓取数据、服务使用者输入的信息等训练数据不存在侵权内容,生成式人工智能生成内容构成侵权的,服务提供者收到权利人通知后,采取消除措施即可实施责任豁免。这种情况下,用于模型训练的原料是合格的,侵权内容生成的原因在于生成式人工智能服务提供者未尽到审核义务,承担违反安保义务的侵权责任即可。以ChatGPT为代表的生成式人工智能处于早期发展阶段,训练数据来源、人工智能模型、反馈机制等存在固有缺陷,施以服务提供者过重的审核义务过于苛刻。原料合格者,采取消除措施即可免责,旨在护航以ChatGPT为代表的生成式人工智能技术的发展。 (二)生成式人工智能服务提供者著作权间接侵权的阻却违法规则 生成式人工智能服务使用者使用他人作品(如输入涉及他人作品的相关内容)或使用源于他人作品的生成内容(如自行使用、传播等)构成合理使用的,生成式人工智能服务提供者即使违反审核等安保义务也不构成侵权。目光来回往返于《著作权法》第24条第1款所列13种情形,生成式人工智能服务使用者使用他人作品或使用源于他人作品的生成内容可能构成合理使用的情形,主要限于第1项和第2项,故本节仅就该两项展开讨论。 《著作权法》第24条第1款第1项规定,为个人学习、研究或者欣赏,使用他人已经发表的作品,构成合理使用,阻却违法。《美国版权法》第107条规定,是否构成合理使用的主要因素之一是使用的目的和性质,包括该使用是出于商业目的还是非营利的教育目的。个人学习、研究或者欣赏的非商业目的性是构成合理使用的法律基础。放眼司法实践,亦有人民法院把商业目的作为构成合理使用的主要考量因素。文义解释下,该条的个人应理解为自然人,不应包括法人和非法人组织。有学者则认为,个人通常仅限于个人或家庭的范围,未触及生成式人工智能服务提供者这类实体法人。服务使用者则可能基于个人学习、研究或者欣赏等目的使用生成式人工智能服务,直接使用他人作品或间接使用涉及他人已经发表作品的生成内容。此项主要适用使用人直接与著作权人发生法律关系的情形,如直接输入他人作品的部分内容。生成式人工智能服务使用者通过生成式人工智能这一媒介取得作品,并没有与著作权人直接发生法律关系,可否援引上述第1项不无疑问。事实上,《著作权法》第24条第1款第1项没有对上述两种情形进行区分,依循法无禁止即可为原则,应全部适用。即使《著作权法》第24条第1款第1项限缩于直接使用,当然解释下,奉行举重以明轻原则,直接使用构成合理使用,间接使用也应构成合理使用,构成阻却违法事由。 《著作权法》第24条第1款第2项规定,为介绍、评论某一作品或者说明某一问题,在作品中适当引用他人已经发表的作品的,构成合理使用,阻却违法。《美国版权法》第107条、《英国版权法》第29条有类似规定。有别于为个人学习、研究或者欣赏合理使用他人作品的非商业性,引用他人已发表作品的目的既可以是包含公益性质的,也可以包含商业性质的,能够构成合理使用的情形是其使用方式应为适当引用他人已经发表的作品。适当引用通常强调引用的少量性与非实质性,大量引用实质性内容可能构成抄袭剽窃他人作品。然而,新作品对原作品构成转换性使用时,即使大量引用或全部引用,仍可能构成合理使用。在完美十诉亚马逊案中,第九巡回上诉法院认为,Google公司未经杂志出版商Perfect 10授权使用缩略图的行为构成合理使用,因为它们具有高度转换性(highly transformative)。在高度转换性使用形成的新作品中,原作品对于新作品在价值和功能上的贡献并不大,要求新作品作者获得许可和支付报酬并不合理。鉴于此,《著作权法》第24条第1款第2项中的适当引用通常是少量的、非实质性的,也可以是转换性使用等特殊情形下的大量或全部引用。服务使用者利用生成式人工智能生成的作品适当引用他人已经发表的作品,以介绍、评论某一作品或者说明某一问题,构成合理使用,可以阻却违法。 综上而言,依据《著作权法》第24条第1项和第2项的规定,生成式人工智能服务使用者使用著作权人的作品构成合理使用,生成式人工智能服务提供者作为安保义务人不构成侵权。理由在于,《民法典》第1198条第2款规定,在第三人介入型间接侵权中,直接侵权人应当承担全部赔偿责任。直接侵权人难以确定或无赔偿能力的,安保义务人才承担与其过错程度和原因力大小相当的责任。生成式人工智能服务使用者鉴于合理使用不构成侵权的,服务提供者相应的补充责任的承担也就失去了法律依据,故前者的合理使用构成后者间接侵权的阻却违法事由。 (三)生成式人工智能服务提供者履行审核义务时的个人信息合理使用规则 生成式人工智能服务提供者在训练模型、优化模型参数、微调模型等阶段,可能侵犯个人信息权益,其应定位为直接侵权人,不涉及安保义务,不属于本节探讨的范围。本节着眼于生成式人工智能服务提供者违反审核等安保义务,致使服务使用者输入内容、生成内容侵害个人信息权益造成信息主体损害,应当承担侵权责任,但构成合理使用适用豁免规则的情形。《个人信息保护法》第13条第1款第1项、第2项脱胎于《民法典》第1036条第1项,属于信息主体同意而非合理使用范畴。该款第2项后半句规定,按照依法制定的劳动规章制度实施人力资源管理所必需的,构成合理使用。但该种合理使用情势与生成式人工智能服务提供者关系不大,故本文不予展开论述。《个人信息保护法》第13条第1款第4项至第5项承继于《民法典》第1036条第3项中的为维护公共利益或者该自然人合法权益,这与生成式人工智能服务提供者提供服务的营利性目的不一致,不宜纳入合理使用范围。《个人信息保护法》第13条第1款第6项遵循的是《民法典》第1036条第2项公开即可用的立法意旨,这对生成式人工智能服务提供者依然适用。但由于理论界与实务界已就此达成共识,本文不再探讨此种合理使用规则。值得注意的是,《个人信息保护法》第13条第1款在《民法典》第1036条的基础上设立了法律、行政法规规定的其他情形(第7项)及为履行法定职责或者法定义务所必需(第3项)之情势,更具科学性。然而,检视现有立法,没有其他特别法对此进行专门规定,故第7项亦非本文论证的重点。因此,探讨生成式人工智能服务提供者履行审核义务时的个人信息合理使用规则应以《个人信息保护法》第13条第1款第3项为履行法定职责或者法定义务所必需为中心展开。履行法定职责的主体,一般应限定为具有处理个人信息权限的国家公权力机关,这显然与生成式人工智能服务提供者无关。履行法定义务的主体主要为自然人、法人和非法人组织,涵摄生成式人工智能服务提供者,故本节主要在法定义务层面讨论个人信息合理使用规则对服务提供者间接侵权责任的限制问题。一是生成式人工智能服务提供者对服务使用者输入的相关内容履行审核等安保义务。服务使用者输入内容包含个人信息,此类个人信息大致可分为两类:一是违法个人信息。例如侵权视频、侵权图片、谣言文本等,可能涉及个人信息。生成式人工智能服务提供者根据《深度合成管理规定》第10条规定履行审核等安保义务,处理大量违法个人信息是为履行法定义务所必需,符合《个人信息保护法》第13条第1款第3项的规定,构成合理使用个人信息而免责。这与韩国《个人信息保护法》(Personal Information Protection Act,PIPA)第15条第1款第2项中为了遵守法律上的义务而不可避免的情形及欧盟《一般数据保护条例》(General Data Protection Regulation,GDPR)第6条第1款(c)项中控制者履行法律义务之必要情形如出一辙。二是合法个人信息。合法个人信息是指用户输入的个人信息本身不具有违法性,如信息主体自行公开个人信息的情况下,个人对于信息的控制并不能排斥企业的合理使用。从立法目的看,《深度合成管理规定》第10条是为了防止违法信息和不良信息的传播。即使用户输入的是合法个人信息,服务提供者也只有在审核之后才能判定输入内容是否合法。这也属于为履行法定义务所必需而处理个人信息,构成合理使用。 二是生成式人工智能服务提供者应对输出结果履行审核等安保义务。生成式人工智能服务提供者审核输出结果是基于《深度合成管理规定》第10条的规定,履行审核等安保义务,符合《个人信息保护法》第13条第1款第3项,同样构成合理使用个人信息。《个人信息保护法》第13条第1款第3项中为履行法定义务所必需的规定主要是基于为维护公共利益的考量,这与《个人信息保护法》第13条第1款第4项和第5项的立法目的是一致的。因为义务主体履行法定义务虽存在保护某一或某些私主体利益的情形,但最终是为了维护社会公共秩序,如交易安全等。欧盟《数据法案》(Data Act)第75条规定,当重大公共利益的保障受到威胁时,如应对公共突发事件不应因所获得的数据而对企业进行补偿。因此,为维护公共利益,生成式人工智能服务提供者对输出结果进行审核不仅构成对个人信息的合理使用,而且应视为已履行审核义务,不作侵权论处。 结语 以ChatGPT为代表的生成式人工智能服务提供者基于对生成内容的控制力和影响力,兼具内容生产者与平台管理者的双重身份。应在结合《深度合成管理规定》《人工智能暂行办法》两部规章的基础上,适用《民法典》第1195条至第1198条,在安保义务制度体系内解决间接侵权责任的认定与承担问题。服务使用者使用生成式人工智能造成他人损害的,且服务提供者违反审核等安保义务的,应当承担相应的补充责任。服务提供者知道或应当知道服务使用者利用生成式人工智能侵害他人合法权益的,应当就损害扩大部分与服务使用者承担连带责任。但在应当知道情势下,内部责任分担应适当减少生成式人工智能服务提供者的责任份额,适当增加服务使用者的责任份额,即实施惩罚性赔偿。除故意的主观状态外,生成式人工智能服务提供者属于一般过失的加重情节的,可以实施惩罚性赔偿。同时,鉴于平衡生成式人工智能服务提供者与服务使用者利益及生成式人工智能技术发展与著作权、人格权等保护,可以经由避风港规则、著作权的合理使用规则和个人信息的合理使用规则对服务提供者的间接侵权责任进行适当限制。但是,《深度合成管理规定》《人工智能暂行办法》等规章为生成式人工智能服务提供者等法律主体设置的审核等安保义务,是公法义务、私法义务抑或两者兼具,有待进一步研究。随着欧盟《数据法案》的出台,我国是否应当针对生成式人工智能等人工智能规制出台专门立法,并实现与现有法律法规、规章的有效衔接与良性互动,有待观察。(附注省略,有需要者请参阅《法学家》2024年第3期 原刊)
G-AI 服务提供者间接侵权责任的承担与限制
免责声明:本站部分内容、观点、图片、文字、视频来自网络,仅供大家学习和交流,真实性、完整性、及时性本站不作任何保证或承诺。如果本站有涉及侵犯您的版权、著作权、肖像权的内容,请联系我们(0536-8337192),我们会立即审核并处理。