IFEF 2025 | UGC内容侵权风险与平台责任边界

论坛聚焦IP资产的多元化应用、泛娱乐领域知识产权保护、游戏、影视、长短视频等AI与泛娱乐产业的共生共赢以及全球化语境下的泛娱乐产业协同发展等热点议题,为行业搭建了一个前瞻性、高层次的交流平台。

2025年6月27日上午,山东科技大学知识产权学院赵丽莉教授为本次大会带来了“UGC内容侵权风险与平台责任边界”的主题分享。

用户生成内容(User Generated Content, 以下简称UGC)是指用户自行发布、上传或分享的内容,包括文字、图片、音视频等形式。随着 UGC 内容的大量涌现,与之相关的侵权风险和法律规制问题日益突出。在不同技术背景下(包括传统平台模式与生成式人工智能模式),UGC内容侵权问题呈现出不同特点和复杂性。

一、传统模式下UGC内容侵权风险的主要表现及规制

(一)侵权风险的主要类型

在传统模式下,UGC内容可能涉及以下侵权风险:

  • 版权侵权:如未经授权上传影视、音乐片段,使用他人图片/摄影作品,复制粘贴他人文字作品,分享破解软件或游戏等。
  • 肖像权侵权:如未经同意使用他人肖像等。
  • 隐私权侵权:如偷拍偷录、泄露个人隐私信息等。
  • 商标权侵权:如未经授权使用注册商标;商品展示/评测;销售假冒商品等。
  • 名誉权和商誉权侵权:如诽谤与侮辱、商业诋毁等。

(二)国内平台责任的承担规则

目前,针对这些风险,国内平台的责任承担主要依据“避风港规则”和“红旗原则”。

“避风港规则”是指当权利人通过正式、合规的通知告知平台存在侵权内容后,平台应及时采取删除、屏蔽、断开链接等必要措施,否则可能需要承担连带责任。

“红旗原则”则是一种用于判断网络服务平台是否应承担版权注意义务的法律原则。如果侵权情形明显,或平台在客观上应当预见侵权风险却未及时采取措施,平台也可能需要与侵权人共同承担责任。司法实践中,法院对该义务的认定通常采取主客观相结合的方式综合判断。

(三)新兴技术下的适用困境

随着新兴技术的发展,一些基于区块链架构的平台在适用现有法律规则时面临新的挑战。例如,在NFT(非同质化代币)平台上,法律要求的平台必要措施(如删除侵权内容、断开链接等)在技术层面往往难以实现。由于区块链技术的去中心化和不可篡改的特性,平台难以随意更改或删除链上的信息。同时,区块链技术的智能驱动和匿名化机制也使侵权行为难以识别和溯源,限制了平台及时采取补救措施的能力。

这些技术特性导致“链上删除”与法律规定的删除权之间存在实际的执行困境。赵丽莉教授指出,区块链场景下数据删除权难以落地,反映出新技术与现有法律之间的冲突。她认为,相关制度和规则在未来应结合技术特点进一步完善,以此推动法律与技术的衔接。

(四)国外规制规则

目前,国外对UGC内容的法律适用,主要涵盖以下几个方面:

1.版权侵权中的合理使用原则:欧美版权法对“合理使用”建立了较成熟的判例体系,但也意味着围绕“合理使用”边界的争议更多,诉讼更频繁,用户和平台在判断是否构成合理使用时面临较高风险

2.仇恨言论与歧视内容的严格限制:针对仇恨、歧视性内容,欧美立法及平台普遍实施较为严格的监管和限制,防止有害信息在互联网中传播。

3.在线儿童隐私保护:美国的COPPA(儿童在线隐私保护法)对收集13岁以下儿童信息有极严格限制。涉及儿童的UGC(如上传儿童照片/视频)需特别谨慎,处理不当可能面临重罚。

4.数据隐私法规的影响:欧盟以《通用数据保护条例》(General Data Protection Regulation,简称 GDPR)为核心的数据保护法规,对未经授权传播的可识别个人信息实行严格限制。如果UGC中包含可识别的个人信息,平台在处理这些内容时必须遵守GDPR的要求,否则可能面临巨额罚款。同时,用户也可依据GDPR主张删除权,这一制度安排也成为许多国家制定数据删除权立法的重要参考。

二、生成式人工智能模式下UGC内容侵权风险的主要表现及规制

在生成式人工智能模式下,平台对UGC内容在数据训练、内容生成和内容传播三个环节可能产生的侵权风险负有不同程度的责任。因此,我们需要对此加以区分和识别。

(一)数据训练阶段

生成式人工智能的发展背景下,是否将人工智能的数据训练纳入合理使用范围是平台和实务界的关注焦点。赵丽莉教授指出,我国著作权法下的合理使用制度属于列举式的封闭模式,虽司法实践中有“三要素”、“四要素”等判断标准,但总体限制较多,难以充分回应生成式人工智能发展下对大规模数据挖掘训练提出的例外需求。正因如此,数据使用的主要法律依据仍是传统授权许可模式。然而,面对生成式人工智能的大规模训练需求,该模式在实践中已难以有效满足要求。

从国际视角来看,欧盟、美国和日本在生成式人工智能的数据训练方面采取了不同的法律应对方式:

  • 欧盟:《人工智能法案》、《数字单一市场版权指令》等明确通用人工智能模型提供者需承担相应法律责任,并要求公开训练数据。同时,若权利人未明确反对,平台可视为获得“默示许可”进行数据训练,但权利人保留“选择退出”的权利。
  • 美国:以“转化性使用”(transformative use)作为是否构成合理使用的核心判断标准,即若使用他人作品产生全新用途或表达,且不损害原作市场价值,更可能被认定合理使用。同时适用“四要素”来进行综合考量,“四要素”分别为:使用目的和性质、作品性质、使用量和实质性、对市场影响。
  • 日本:尚不立法限制生成式人工智能训练的各类数据

(二)内容生成阶段

在内容生成阶段,当用户使用生成式人工智能平台生成内容侵犯他人的著作权时,平台的责任应进行综合认定。已有的司法实践表明,法院在认定平台责任时,通常会重点考虑以下因素:

  • 平台对内容生成的控制力:若平台对内容生成具有较高控制力,法院倾向于要求其承担更高的注意义务,未尽义务时需承担相应侵权责任;反之,若平台仅提供技术工具,控制力有限,责任可能减轻。
  • 平台盈利模式:若平台通过内容分成、排他授权等方式直接获利,法院更可能认定其应承担较高注意义务。
  • 作品知名度与可识别性:高知名度作品易被识别,平台应具备预见风险和防控能力。
  • 预防措施的可行性与成本:法院会考虑平台采取关键词过滤、版权审核等措施的成本与可行性,作为是否尽到注意义务的重要考量。
  • 平台技术属性与侵权后果的严重性:若平台技术特性加剧了侵权后果,可能导致更严格的责任认定。

(三)内容传播阶段

在生成式人工智能的内容传播阶段,若平台传播违法有害或侵权内容,也可能面临相应法律责任。在传统模式下,违法有害或侵权内容多由用户故意上传生成,平台通常适用“避风港”规则,只要未主动参与内容生成,并在接到通知后及时采取必要措施(如过滤、屏蔽、删除等),一般不承担责任。

而在生成式人工智能场景下,平台本身可能直接参与内容生成,即便并非故意输出违法或侵权内容,若传播此类内容时未及时采取管理措施,也可能被认定构成直接侵权或帮助侵权并承担相应责任。此外,生成式人工智能服务提供者还可能被要求承担更高的注意义务,如对生成合成内容履行标识和过滤义务等。

值得注意的是,赵丽莉教授指出,当用户利用生成式人工智能技术创作出可能侵犯他人著作权的内容,并上传至非生成式人工智能平台(如社交媒体、电商平台等)进行传播,非生成式人工智能平台是否需要承担更高的注意义务是引人关注的问题。尽管目前我国法律并未要求非生成式人工智能平台承担更高的注意义务,但随着技术和监管的发展,未来对这一问题尚有进一步探讨的空间。

三、平台的其他注意义务

除版权合规问题外,赵丽莉教授指出,生成式人工智能平台在运营中还需关注数据安全、个人信息保护和禁止传播违法有害信息等其他合规风险。平台对于UGC内容中可能出现的人肉搜索、恶意诽谤、煽动攻击等情形,应承担更积极的预防和处置责任,及时采取措施减少侵害。

此外,赵丽莉教授还建议平台应关注敏感信息的合规边界,严格遵守相关管理要求,并落实对未成年人的特殊保护义务,以降低运营过程中的潜在法律风险。

编辑:Sharon


分享到微博
分享到微信
    分享到领英

相关文章