王迁 | 生成式人工智能著作权争议的法治回应



王迁 | 华东政法大学教授

编者按
Editor's note

人工智能是新一轮科技革命和产业变革重要驱动力量。习近平总书记2025年在主持二十届中共中央政治局第二十次集体学习时指出:“要把握人工智能发展趋势和规律,加紧制定完善相关法律法规、政策制度、应用规范、伦理准则,构建技术监测、风险预警、应急响应体系,确保人工智能安全、可靠、可控。”“十五五”规划纲要提出“完善人工智能领域法律法规、政策制度、应用规范、伦理准则”。应持续推进人工智能相关知识产权制度创新,加快建立人工智能、大数据等新领域新业态知识产权保护规则,为发展人工智能技术提供更加有力的知识产权法治保障。《中国法治》杂志特约专家学者以主题笔会形式围绕生成式人工智能著作权争议、人工智能大模型训练数据的著作权合法来源、智能体治理的基本原则等相关问题进行深入研讨。

摘要

生成式人工智能带来了三大著作权争议,亟须法治回应。其一,就人工智能生成内容可版权性争议而言,应坚持“以人为本”理念,将“创作”理解为基于自由意志直接决定表达性要素的行为,据此人工智能生成内容不宜作为作品保护。其二,就人工智能生成侵权争议而言,应以权责统一视域明确各方主体责任,并可将“假定自然人测试法”作为确认权责的标准。其三,就人工智能训练争议而言,著作权法的基本理论难以为未经许可建立容纳海量作品的训练语料库提供正当性依据。应当立足中国现实,推进法治保障创新。

关键词:人工智能生成内容 可版权性 人工智能生成侵权 人工智能训练

一、引言

随着生成式人工智能快速发展,相关的著作权法律议题日益凸显。当前最为突出的争议至少包括三个方面:其一,根据提示词生成的人工智能生成内容能否构成著作权法意义上的作品;其二,人工智能生成内容与在先作品相同或者实质性相似时,如何认定侵权及分配责任;其三,以海量作品训练人工智能,特别是通过爬虫抓取、汇集作品并建立可反复调用的语料库,是否落入复制权等专有权利控制,以及现行合理使用规则能否容纳此类行为。

近期公布的《中华人民共和国国民经济和社会发展第十五个五年规划纲要》已明确提出“探索建立人工智能生成物权利归属和开发者经营者使用者权责认定规则”“建立人工智能训练数据合理使用制度”。当前最需要的不是在概念上回避冲突,而是在法治保障框架内正视冲突,以法治化解决生成式人工智能著作权问题。著作权法既要保护作者权益、鼓励创作与传播,又必须预留公共领域与合理利用空间,避免权利扩张对社会知识流通造成过度抑制。正因如此,需要探索符合利益平衡理念的生成式人工智能著作权法治保障方案。解决人工智能生成内容是否属于作品的争议,需要澄清“创作行为”的内涵;解决人工智能生成侵权内容的争议,需要明确侵权认定与责任承担的规则;人工智能训练问题则要求在创新激励与权利保护之间重建可预期的制度平衡。

二、以人为本理念下的人工智能生成内容定性争议检视

《全球人工智能治理倡议》提出,人工智能的发展应坚持“以人为本”的理念。这一观点既契合马克思主义倡导人的解放、反对人的异化的观点,也与中华传统文化中人本主义观念相贴合。应当始终以“人”为中心构建人工智能时代著作权的理论体系和具体制度。本文认为,“创作”是基于自由意志直接决定表达性要素的行为,这体现了“以人为本”的理念。

《中华人民共和国著作权法实施条例》(以下简称《著作权法实施条例》)第三条第一款规定:“著作权法所称创作,是指直接产生文学、艺术和科学作品的智力活动。”《著作权法实施条例》第三条第二款规定:“为他人创作进行组织工作,提供咨询意见、物质条件,或者进行其他辅助工作,均不视为创作。”其中,“直接产生……作品”强调的是民事主体决定构成作品所需表达性要素的自由意志。其与作品之间的联系如此紧密,以至于只能用“直接”而非“间接”予以描述。与之相对应的是“间接产生……作品”,包括对作品的创作理念、风格、目标和方法等下达指令、进行指导、提出意见或建议,其并不能直接决定构成作品的表达,而需要作者自行选择和判断,以个性化的方式予以实现。一个最为典型的例子,为学生作画写出几百字文字要求的老师本身无法成为学生画作的作者。

要认定人工智能的开发者或使用者是否以人工智能为工具“创作”了相关内容,就必须判断该开发者或使用者是否基于其自由意志直接决定了构成相关内容的表达性要素。这一标准最直接的外在表现,就是“直接决定”意味着许多同类的不同创作工具,处理同一要求所得到的表达性要素是相同的,只可能产生技术意义上的差异。例如,用各种计算机文字处理程序,如美国微软公司的Word和我国金山公司的WPS,分别在配置差异较大的数台计算机上进行相同的文字输入,结果必然是生成相同的文字组合、遣词造句。对于人工智能生成内容而言,人工智能开发者当然需要设计算法和模型,并使用大量的数据“训练”人工智能,且反复纠错,使人工智能面对不同的需求能自主生成内容。然而人工智能开发者不可能仅通过上述操作,就能凭借其自由意志直接决定人工智能生成的内容。同样道理,向人工智能发出指令,要求人工智能完成特定任务的使用者也不能凭借其自由意志,决定人工智能生成的内容,因此不能认为该使用者从事了作品的“创作”。虽然用户的指令划定了人工智能生成内容的方向和领域,也可以从人工智能生成的众多内容中挑选出满意的部分,但不能直接决定这部分内容的表达性要素。

对此存在的质疑观点是,如果提示词具体到函数层面,比如向人工智能输入用户自己创作的一幅画的坐标,则可以认可用户的独创性贡献。然而这种情况意味着人工智能成了复制用户画作的技术工具,而不是在自主“生成”内容,与“生成式人工智能”的名称和讨论生成内容是否属于作品的当然逻辑起点相悖。当然,如果科技真的发展到了这么一天,人工智能可以达到科幻电影《盗梦空间》所描述的技术阶段(所谓脑机接口技术大概正向此方向发展),当画家已经在脑海中构思了作品的所有表达性要素,即所谓“胸有成竹”时,人工智能潜入人的意识中,将“胸中之竹”变成了计算机屏幕上竹子图,则的确“(画家)对于最终画面的独创性表达的预见度可能接近100%”。然而这种假设下的人工智能还是我们现在讨论的生成式人工智能(Generative Artificial Intelligence)吗?恐怕改为“复制式人工智能”(Reprographic Artificial Intelligence)更为合适!

本文认为人工智能生成内容应当被排除出作品范围。至于在人工智能生成内容的过程中用户可能做出的智力贡献(如对人工智能生成的内容进行具有独创性的修改、汇编等“演绎”,或者设计可以构成文字作品的提示词),将其与其他作品一样纳入著作权保护范围,从来不存在争议。对于是否应当设置人工智能生成内容的邻接权,也就是提供特别保护,当然是值得认真对待的问题。邻接权并不以“创作”出具有独创性的内容为前提,但邻接权与作者权一样同属民法上的绝对权、对世权,是否创设此种邻接权涉及复杂的利益关系和利益平衡,国际上没有对人工智能生成内容设置邻接权(作品之外其他文化成果权)的先例。本文并不预设观点,但认为至少应当广泛调研,积极跟踪人工智能生成内容的应用实践,审视人工智能技术的发展态势和业界的需求与期待。这样才能扎根中国实际、做出符合国情的制度创新。

三、权责统一视域下的人工智能生成侵权争议检视

习近平总书记2025425日在中共中央政治局第二十次集体学习时指出,完善人工智能监管体制机制,牢牢掌握人工智能发展和治理主动权。人工智能带来的著作权侵权风险需要得到有效监管和治理。当人工智能“抄袭”在先作品,生成了与在先作品基本相同或实质性相似的内容,就会引发复杂的侵权认定和责任承担问题。

著作权法容忍巧合,即双方基于巧合各自对独立完成的高度近似乃至极端情况下相同的内容享有著作权,且互不侵犯对方的著作权。然而无论中外,在著作权侵权诉讼中,被诉侵权方能够举证自己的在后内容是纯粹基于巧合与原告的在先作品实质性相似的案例屈指可数。同样道理,巧合抗辩难以适用于人工智能生成侵权场景。所谓“巧妇难为无米之炊”,当人工智能生成的内容与复杂到一定程度的在先作品实质性相似时,更合理的解释是人工智能以某种技术手段实质性地再现了用以作为素材训练的在先作品,而不是纯粹无中生有地自行“创造”出了与他人作品实质性相似的内容。若诸多用户要求生成式人工智能向其提供某件在著作权保护期内的他人画作,生成式人工智能便径直且稳定地生成相同或实质性相似的内容,那么将这种训练模型生成相似结果的情况评价为技术巧合就有失偏颇。

权责统一视域有助于评判人工智能生成侵权争议下的各方责任。权责统一寓意着“权利与义务相统一”,其中的“权利”并不局限于著作权或其他法定权利,而是泛指利益。在获取相应利益的同时,通常需承担相应的义务。人工智能开发者投入巨量资金开发生成式人工智能,是为了形成相应的商业模式,直接提供人工智能生成服务或嵌入相应产品提供人工智能生成服务以换取经济利益。这种商业利益正是开发人工智能的动力,亦是“权利与义务相统一”中的“权利”(利益)。与之相适应,当人工智能开发者从中获取权利,也需要承担相应义务。若开发者所提供的人工智能存在严重缺陷,会轻易且稳定地生成侵权结果,则开发者难辞其咎,需要采取停止侵权措施并视过错程度承担赔偿责任。

“假定自然人测试法”为如何确定权利与义务提供了可行的解决方案。这一方法是指先将人工智能假定为自然人,将实际通过人工智能实施的技术过程假定为自然人实施的具有相同效果的行为,以此对表面上的疑难争议问题进行类推比较,再在结论中用人工智能替换假定的自然人(存在人工智能无民事主体资格这一核心区别),从而观察结论的合理性。一直以来,对于人工智能“抄袭”在先作品时,究竟应当追究用户、人工智能服务提供者还是人工智能开发者的责任,存在不少的争议。但如果将生成式人工智能类比为网络自动点唱机,则可以发现传统著作权法已经为定分止争确定了规则。此时,用户就是向网络自动点唱机要求提供音乐的自然人,人工智能开发者可类比为网络自动点唱机的制造者和销售者。在网络自动点唱机提供他人在先音乐作品的情况下,用户仅提供指令并在私人空间欣赏,并没有实施复制作品等受专有权利规制的行为,其将音乐作品存储于电脑供自己日后欣赏,则属于合理使用。至于用户随后传播该作品是否构成侵权,自当另行判断。同时,虽然人工智能开发者没有直接实施“抄袭”行为,但就像网络自动点唱机的制造者和销售者要承担侵权责任一样,可能需要为人工智能“抄袭”在先作品造成的损害后果负责。此外,以上方法同样可应用于初步考察人工智能接入、聚合服务提供者的责任,以明确其是否适用“通知与必要措施”规则以及是否履行了合理注意义务,采取了制止侵权的“必要措施”。

总之,要解决人工智能生成侵权内容的问题,仍遵循著作权法和民法典侵权责任编的一般原则。以权责统一促使人工智能开发者加大投资和技术研发,防止人工智能生成侵权内容,这对于人工智能的健康发展大有裨益。技术发展也许突飞猛进,但法律的基本原理和运行逻辑却能够在相当长时期内保持相对稳定,因为新技术现象并不必然带来足以推倒现有规则的新问题。

四、政策导向下的人工智能训练争议检视

习近平总书记2025425日在中共中央政治局第二十次集体学习时指出,要正视差距、加倍努力,全面推进人工智能科技创新、产业发展和赋能应用。《全球人工智能治理倡议》指出,发展人工智能应“以增进人类共同福祉为目标,以保障社会安全、尊重人类权益为前提”。人工智能相关著作权问题的妥善解决,不仅关涉立法与司法,更与人工智能产业息息相关。

人工智能开发者大多需要建立起包含海量作品的内部知识数据库(训练语料库)对人工智能进行训练,但这种基于商业目的的海量、系统和大规模的利用行为,尚未被纳入任何一个国际条约或国家著作权法所规定的权利限制范围。国家网信办等七部门联合发布的《生成式人工智能服务管理暂行办法》第七条规定生成式人工智能服务提供者在开展训练时,“涉及知识产权的,不得侵害他人依法享有的知识产权”。但是,该规定并未明确何种情况才能认定侵权。使用作品训练人工智能应如何定性和规范,在全世界范围内引起了最为激烈的争论。其中的主要原因,是人工智能技术的发展过于迅猛,而现有的著作权法和制度设计理论都尚未做好准备。

现有观点往往援引源自西方的非表达性使用或转换性使用理论为人工智能训练的合法性提供依据。然而,哪怕是西方的案例也表明,大规模内部复制行为对订阅市场造成实质性影响的,不属于合理使用。转换性使用概念的提出者Leval法官认为,被告公司的图书馆对期刊文章的复制既不具有转换性,也不具有非商业性,而是具有替代性。被告公司只是对相关文章进行了机械复印。原件的副本也并非作为更大整体的一部分用于某些新用途。被告公司复制的主要目的是取代原件并允许复制,甚至批量复制。研究人员可将某篇文章复印留存,以备日后阅读或查阅,从而不必与他人共享原始期刊。这类复制行为并未对原作品作出任何实质性新增或改造,其仅实现了副本数量的增加。所谓的“转换性使用”,需要产生新的、不同于原作的内容,而不是说只要是为了有益的目的而制作复制件就符合条件。二审同样支持了这一思路,法院认定被告公司不能仅仅因为对文章(或书籍)进行档案复印,就获得合理使用豁免。同样,一家报纸不能声称,由于其业务是“新闻报道”,它就可以自行复印新闻书籍并把它们放在记者的书架上让其学习,一家学校也不能主张,为了帮助教师提高教学能力,就可以大量复印教育学的书籍并让教师阅读复印件。无论复制和阅读此类书籍可能对提高教学能力带来多大的益处,都不可能构成教学性合理使用。

本文认为,人工智能训练深刻嵌入中国产业升级、技术竞争与制度调整的现实脉络,因而具有强烈的政策导向。正如《知识产权强国建设纲要(20212035年)》所指出的,知识产权保护应“突出重点领域和重大需求,推动知识产权与经济、科技、文化、社会等各方面深度融合发展”。结合这一背景,西方正在讨论的“非表达性使用”“转换性使用”和“选择退出”都难以对使用作品训练人工智能产生的著作权问题提供一劳永逸的解决方案。在人工智能技术应用的不同阶段、不同时期,应该有与当时的社会经济条件和国情相适应的政策与制度设计。下一步更可行的方向,不是勉强将人工智能训练问题套入这些此前出现的概念和机制,从而一刀切地认定使用作品训练人工智能就是合理使用。而是在充分把握中国实际国情的基础上,厘清人工智能训练问题的症结所在,推进相关机制的改进以及权利人权益的维护,在此过程中可能需要进行某些具有过渡性质的临时性制度设计,并从中提炼出更具有解释力的中国论述,实现人工智能训练法治保障的螺旋式上升。

五、结语

在维护著作权人权利边界的同时,也应为新技术发展提供必要而明确的法治保障。生成式人工智能时代真正需要的是,通过更清晰且更具有前瞻性的规则供给为各方主体划定可以预期的行动边界。唯有如此,技术发展才不至于以过度侵蚀权利为代价,权利保护也才能在回应现实变迁中获得持续的制度基础。

*以上文章来源于《中国法治》2026年第4

来源:中国法治在线

编辑:Sharon


分享到微博
分享到微信
    分享到领英

相关文章