谢尧雯:生成式人工智能价值链行政监管与侵权责任的匹配 政法论坛202502
时间: 2025-03-04 07:44:35 | 作者: 真空型等离子清洗机
产品介绍
【来源】北宝法学期刊库《政法论坛》2025年第2期(文末附本期期刊目录)。因篇幅较长,已略去原文注释。
内容提要:生成式人工智能价值链具有多主体参与、机器自主学习的特征,法律规制要实现行政监管与侵权责任的效率匹配。行政监管旨在预防系统性风险,为基础模型研发者、专业模型研发者、服务提供者设定基础行为义务,增强价值链透明度,从而促进价值链各主体形成秩序互动与协同治理。行政监管设置的风险预防规则将影响侵权责任归责原则与构成要件的判定,侵权责任则需要发挥其获取场景信息的规制优势,弥补行政监管回应科技发展的制度缺陷。生成式人工智能服务提供者应适用产品责任,通过完善产品缺陷认定实现侵权与监管的衔接。法院以行政监管设置的绩效标准与内部管理型标准为框架,判断行业守则与标准是不是满足合理技术设计的基本要求,并激励行业层面逐渐完备自我规制、探寻最佳技术实践,实现软法与硬法的互动。
目次 一、问题的提出 二、生成式人工智能价值链规制的核心理念——实现行政监管与侵权责任的匹配 三、生成式人工智能价值链的行政监管 四、行政监管与侵权责任的衔接
生成式人工智能技术蕴含着推动各行各业发展的重大潜力。这一技术系统基于价值链开展研发、生产、应用活动,牵涉多个主体的复杂互动且伴随机器自主学习。如何为价值链不同主体合理设定行为义务以确保系统安全与公正,成为法律规制难点。行政监管与侵权责任是约束价值链参与者行为的核心规制框架,二者有效匹配对于优化人工智能规制设计至关重要。这一议题在实践中亦得到了初步关注。2024年2月,广州互联网法院在判决中对生成式人工智能行政监管与侵权责任关系作出了初步评价。法院在判决说理中明晰,由于被告违反了《生成式人工智能服务管理暂行办法》第15条、第4条、第12条,未尽到合理注意义务,因此存在过错。
该判决将“生成式人工智能服务提供者”违反公法义务视为侵权责任过错评价标准之一,这一做法值得审视。一方面,《生成式人工智能服务管理暂行办法》与现行法院判决都将责任主体限定为“生成式人工智能服务提供者”,并没有关注到价值链其他参与者,是不是满足技术逻辑有待深入探讨。另一方面,关于行政监管与侵权责任之间如何构建匹配机制,违反公法义务构成侵权过错判断标准是否会导致公私法界限模糊,仍有待进一步思考。在这一问题意识下,本文以生成式人工智能价值链技术逻辑为基础,探讨行政监管与侵权责任怎么来实现效率匹配。
生成式AI系统价值链具有多主体参与、各主体相互依赖与影响、机器自主学习等特征,这为有效规制各主体行为、保障技术系统的安全与公正带来了挑战。法律规制需要综合考量行政监管与侵权责任在行为规制方面的优势与不足,构建两者间的协调匹配机制。
价值链概念最初用于描述商业运营流程。商业运营中,每项活动都涉及将输入资源转化为有价值的输出,上动者基于线性链条逐次将输出转移至下动者,进而构成了一个由多主体共同参与的价值创造链条。AI系统由一系列活动和环节构成,牵涉多主体共同创造价值,体现了价值链特征。价值链概念所揭示的各主体间复杂的行为关系以及价值累积效应,成为AI法律规制设计必须考量的主要的因素,也因此被众多国家的监督管理的机构引入至人工智能的监管讨论之中。生成式AI系统价值链与一般AI系统价值链在核心运行机制上是一致的,其主要呈现以下两大特征。
人工智能系统发展包括如下步骤:问题界定,数据收集与预先处理,模型训练,模型再训练,模型测试与评估,嵌入软件,AI产品或服务的部署与使用。每一个步骤都牵涉诸多主体参与,包括软件委托方、数据收集者、数据清洗者、标注者、代码设计者、模型调试者、训练者、产品或服务运营的后台操作者、终端使用者等。事实上,软件研发一直是多主体参与的过程,导致责任归属不明,形成“多手问题”(Many Hands Problem)。与传统软件相比,AI系统涵盖的数据、软件工具与研发主体更为多样化,各参与者间的关联错综复杂,彼此高度依赖且影响深远。
生成式AI系统价值链主要由六个核心阶段组成,每个阶段都会定时进行调整与优化以更好地满足其他阶段的需求。具体阶段如下:数据收集与训练;模型预先训练—模型训练者选择训练数据集、模型架构、训练算法,并设定训练过程中的随机种子值,以研发出具有广泛适用性的基础模型;模型微调——对预训练模型做调整,使其在特定领域能完成更专业化任务;模型发布与系统部署—模型可以以开源形式发布、供公众使用与改进,也可以被嵌入到软件应用中进行部署,还可以直接与用户交互生成内容;内容生成—系统按照每个用户输入生成内容;模型对齐—整合人类反馈数据和强化学习算法对模型进行更新与优化,以确保模型输出符合预设的特定偏好或标准。
人工智能系统以机器学习技术为核心,它不是一个具体产品或一次性服务,而是以数据为导向、与环境进行动态交互的“技术—社会”系统。系统的持续性发展以及用户、研发者与系统之间的反馈循环,为新风险发生提供了空间。这表明,即使AI系统在某一时刻被判定为安全,但实际应用仍可能会引起模型不稳定及性能下降。
从行为规制视角来看,行政监管与侵权责任是约束价值链参与者行为的主要规制框架。行政监管旨在于在损害发生前,设定统一行为标准,并通过责令改正、警告、罚款、限制或剥夺行为资质等一系列公共执法方式威慑行为人遵守义务规则。侵权责任是受害人在损害发生后提起侵权诉讼,法院结合个案确定行为人是否承担赔偿责任。
随着现代规制国家持续不断的发展,行政法律规范与民事法律规范不再是截然区分的运行体系。在公私法界限逐渐模糊背景下,如何链接行政监管与侵权责任,构成规制理论与实践的重要议题。传统法教义学方法从规则适用角度探讨二者关系。一是探讨违反公法规范是否应承担侵权责任。公法与私法存在不同规范目标,前者保护公共利益,后者保护个体民事权益。若特定的行政法律规范兼具保护私人利益的目标,则构成“保护规范”,将成为侵权责任的评价依据。二是探讨公民权利的公法权利与私法权利属性。如果特定法律条文既保护公共利益也保护私人利益,构成保护规范,则公民据此享有主观公权利,可请求行政主体介入保护其权益;如果特定法律条文不构成保护规范,则公民不得主张公法上的救济,只可以通过向法院提起民事诉讼方式保护其权益。
当下科技发展的重要特点是,科技与社会互相影响、关系错综复杂,公共利益与私人利益难以界分。因此,从规范保护目的的规则适用视角审视行政监管与侵权责任的关系,无法为设计科技规制制度提供有价值的边际增量。法经济学方法以“事前观点”审视侵权责任,即事后损害赔偿构成对行为人事前行为的激励。在此意义上,侵权赔偿客观上激励了一般社会主体采取一定的措施预防损害发生,促使侵权机制在某些特定的程度上发挥了“设定行为标准、监督与执行行为标准”的规制功能。一直以来,法经济学从行为效率规制视角寻求公私法匹配的理念未得到普遍推崇。原因主要在于,在我国强行政监管背景下,通过个案救济发挥司法公共治理职能,不仅会给资源不足与专业薄弱的法院带来诉讼负担,亦会对社会主体产生过度威慑效应,因此理论与实践多主张弱化侵权责任的行为规制作用。
人工智能侵权与传统侵权存在非常明显区别,侵权责任的制度功能需要从个体救济向公共治理倾斜。一方面,人工智能侵权是价值链多个主体共同创造的结果,且人工智能决策具有黑箱与涌现性特征,使得判断某一主体行为是否构成过错、行为与结果之间是不是具有因果关系存在困难。另一方面,人工智能侵权并非传统的一对一侵权或多对一侵权,其具有大规模微型侵权特征,会导致海量个体权益受损。在此背景下,更合理和可行的方式是直接在不同主体之间分配责任,而不是依赖主观意志过错和因果关系来判断侵权责任。事实上,从工业化时代开始,侵权法就朝着责任分配方向发展,责任设置亦通常超越直接涉案主体,将社会保险、责任保险等制度纳入分析框架。数字时代对这种责任分配转变提出了更迫切的需求,这也表明侵权制度已不再是单纯依赖个案救济间接实现行为规制,而是通过责任分配直接承担起公共治理的职能。在此背景下,寻求行政监管与侵权责任在行为规制层面的匹配机制,对于人工智能规制设计至关重要。
行政监管的优势在于,监管部门可以通过专业性知识、规模化监控与多元执法手段预防损害发生。但在某些情形下,制定行为标准所需的重要信息,是伴随风险活动的开展而生成的附属品,无法在活动发生前被监管者感知并获取。侵权责任的场景信息获取优势对于人工智能效率规制至关重要。人工智能技术带来的社会影响更多体现为变革知识生产方式、个体生活方式、社会交互交往形式等价值性影响。在价值多元与变动的社会中,科技与社会是协同发展的关系,事前规制性规则试图通过特定节点的价值理念来约束技术发展,很容易随着时间的推移而丧失其合理性。侵权责任待损害发生后进行回应,将更显审慎性与针对性,减小了过度管制、扼制创新的风险。因此,行政监管制度设计需要明确其必要性与目标、限度,为侵权机制制定符合场景特征的最优风险预防行为标准预留空间。
就必要性而言,人工智能价值链存在“多手问题”,而侵权机制难以有效独立解决。人工智能系统产生的影响,可能源于价值链多环节的累积效应,也可能是某关键环节出现问题。因此,控制风险需要多主体协同行动,或者由单一主体独立采取措施。一方面,如果人工智能系统中各方主体承担过错责任,则每一方主体都可能以其他主体没有采取更有效的边际预防措施为由,主张减免自身责任。另一方面,如果由人工智能系统中某一方或多方主体承担无过错责任,则该主体将有动力通过合同等方式厘清并督促价值链中其他主体实施预防措施。然而,鉴于算法的不透明性以及机器具备自主学习特征,承担无过错责任的主体很可能因价值链中其他主体的搭便车行为而难以确保系统安全。而且,无过错责任还可能使行为主体减少行为量,进而扼制创新。就行政监管目标而言,由于价值链中的每一方参与者都有可能对最终结果产生一定程度的影响,事前监管应当为价值链主体设定基础行为义务,促使各主体形成秩序互动与协同治理,从而确保技术系统维系一定程度的安全与公正水平。
行政监管的必要性与目的得以论证后,接下来的问题是,行政监管对于侵权责任的作用是什么,二者如何构建衔接机制。传统理论认为,二者在行为规制层面存在三种基本衔接方式:规制性规范与侵权机制部分重合但彼此构成独立行为评价体系,违反了规制性规范并不当然构成侵权责任;规制性规范厘定了侵权责任的基础框架,侵权机制依赖规制性规范设置的风险级别分配风险预防责任,而且违反规制性规范将构成侵权过错责任中的过失;规制性规范设定了细密、严格的行为标准,代表社会最优预防水平,侵权机制在个案中确定的行为标准不应高于规制性规范。本文主张第二种衔接方式。人工智能技术迭代速率日益增进,法院具有获取场景信息的优势,能够在具体个案中寻求与技术发展水平相一致的、符合“预防成本—技术效益”效率原则的行为规制标准。然而,法院欠缺专业优势,难以在权衡技术发展的社会影响与预防措施成本的基础上独立判断责任归属。因此,行政监管规则应当成为界分过错责任与无过错责任的框架,并作为底线规则,纳入侵权责任构成要件的考量之中。
其一,根据行政监管规则来确定侵权责任的归责原则。侵权责任归责原则存在过错责任与无过错责任两种基本形式,不同归责原则的行为激励效果存在区别。在过错责任下,法院可以依据个案事实、双方提供的信息,判定预防行为投入成本与收益,明确行为人在特定场景中的“适当注意水平”。如果法院在判断行为注意水平方面存在信息弱势,则可以通过设定无过错责任来激励潜在侵权人积极采取预防措施。在过错责任下,行为人达到注意义务标准后缺乏动力进行更多预防投入,由于这一注意义务标准是由法院加以认定的,因此更多体现为一种可被观测的“行为注意水平”。同时,过错责任也激励受害人积极预防损害,实现风险的双边预防。在无过错责任下,潜在侵权人无论是否存在过错都需要对结果承担责任,这促使他们投入更多不可观测的预防努力,构成风险的单边预防机制。然而,理性经济人亦不会过度投入预防,其会通过减少行为量来最小化成本支出。
因此,过错责任与无过错责任的区分不仅会影响预防主体与成本,还会进一步影响人工智能研发的数量,以及使用者与公众是否应当监督人工智能的使用,这些均与“人工智能技术不可预测性后果应由社会整体还是技术参与者承担”“社会合理的人工智能应用规模”等重大社会议题息息相关。虽然无过错责任需要以法律明确规定为前提,但法院在判断过错责任时往往采用宽泛过错标准,这使得过错责任实质上发挥了类似无过错责任的行为激励效果。法院在通过个案影响科技发展重大方向方面,欠缺专业优势与民主基础。鉴于此,有必要通过行政监管来制定人工智能技术风险分级标准,侵权机制则依据风险级别设置无过错责任与过错责任。对于高风险人工智能系统,采用无过错责任可激励技术研发者与使用者积极投入更多不可观测的预防努力,以确保技术的安全与公正研发使用,并通过影响行为量的方式逐步控制此类人工智能技术数量。对于低风险人工智能系统,则适用过错责任,由社会共同承担技术发展的剩余风险,进而激发人工智能技术的创新活力。
其二,以行政监管规则框定侵权责任构成要件。为实现最优预防,行政监管设置的风险预防规则将影响侵权责任构成要件判定,而侵权责任亦需要发挥其场景信息优势,补足行政监管回应科技发展的制度缺陷。人工智能行政监管规则通常包括具体行为标准、绩效标准与内部管理型标准,不同监管规则在影响侵权责任构成要件方面存在区别。一方面,具体行为标准规定价值链主体应当或禁止采用的技术标准或行为措施,违反该标准将被认定为存在过错。人工智能侵权存在因果关系认定难题,价值链各主体行为均增加了损害发生的可能性,但难以判断这些行为对结果的促成有没有相当性。为应对大规模侵权,工业化时代的因果关系开始转变为责任判断,即通过后者反推前者,而非通过前者推论后者。在人工智能侵权中,这种转变更为必要,侵权法应进一步朝着责任分配方向发展。因此,一旦违反具体行为标准,即可视为增加了损害发生概率,构成过错,并应当承担相应的侵权责任。另一方面,绩效标准与内部管理型标准构成侵权责任链接政府监管与行业自治的中介。绩效标准与内部管理型标准并不告知价值链主体如何行为的具体标准与方式,而是为其勾勒出大致目标与决策框架,留待社会自我规制补充规范细则。此种规制方式激励科技主体完善自律行为准则,回应了生成式人工智能技术发展特征。但是,依赖行业层面的软法治理,亦可能导致伦理洗涤、行业治理逐底竞争等问题。在此意义上,侵权机制在个案中通过判定注意标准审查行业实践是否适当,以此激励行业层面积极完善实践标准、推动发现共识,实现软法与硬法的有序互动。
行政监管应当充分发挥其规模执法和预防系统性风险的功能,为人工智能价值链主体设定基础行为义务,以促进价值链各主体之间形成有序的互动与协同治理机制,从而确保人工智能系统能够维持在一定的安全与公正水平之上。
“多手问题”并非人工智能系统引发的新议题,传统规制领域积累了解决该问题的制度经验。典型如,在产品责任领域,法律将责任配置给最有能力控制风险与分散风险的核心主体,以此激励核心主体通过合同、自我规制等方式积极采取行动,确保其他参与者行为符合法律要求。这种责任配置理念深刻影响了当下人工智能规制实践。在2020年《人工智能白皮书》中,欧盟委员会提出,为解决人工智能系统多主体参与难题,应当将责任配置给最有能力解决相关问题的主体。然而,白皮书并没有明确具体哪个行为者最适合解决何种问题。《人工智能法案》则提出“提供者”(Provider)与“部署者”(Deployer)两个定义明确的主体,由他们承担主要规制义务。
各国人工智能监管在认定核心主体方面仍在持续探索,但基本共识是,将人工智能系统价值链划分为研发、生产阶段与应用阶段,并根据不同阶段特征为核心主体设置公法行为规范。行政监管的核心目标是,以核心主体为规制抓手,推动价值链参与者形成秩序互动、确保人工智能系统维系一定程度的安全水平。行政监管的核心路径在于,对研发生产与应用阶段的重要风险点实施风险缓解措施,并建立信息共享机制,为研发者或提供者、部署者或使用者进行风险缓解提供信息基础。
其一,研发与生产阶段涉及将何种数据、算法、功能嵌入到人工智能系统中,这种“价值物化”直接决定了人工智能系统的核心性能。研发者与提供者对这一过程拥有较高程度控制权,行政监管重点在于规范“算法影响评估程序”,确保人工智能系统嵌入公平、公正、透明等重要价值理念。其二,在人工智能应用阶段,使用者能够通过调适使用方式来减小事故发生概率,这表明人工智能系统产生的损害是一种双边事故,即受影响者本身亦对损害发生有一定作用力。因此,行政监管规则发挥了关系建构作用,其通过影响使用者与人工智能系统的互动策略,型塑一种秩序化的人机关系。规范人机交互关系的核心在于,通过制定使用行为规范,指导人类使用者合理确定对人工智能系统的信任。在辅助决策中,信任程度决定了人类在多大程度上采纳机器建议;在替代决策中,信任程度则界定了使用者介入机器行为的范围与深度。其三,人工智能价值链各环节紧密相连、互相影响,且风险缓解具有叠加性与替代性特征。因此,行政监管需要建立信息共享机制,为核心主体履行义务提供必要支撑。信息共享至少应当包括:上游研发生产者之间的信息共享、上游提供者向下游部署者提供系统性能信息、下游部署者向上游提供者提供系统运行信息。
生成式人工智能系统的研发生产、商业运营与传统人工智能系统存在显著区别,须结合具体场景确定核心义务主体。一方面,生成式人工智能系统的基础模型并非为特定应用场景而研发,且区别于传统人工智能系统与模型作为整体研发,其研发通常独立于整体系统。基础模型对系统性能具有重要影响,因此有必要对其进行专门规制。另一方面,基础模型存在多种部署方式。其一,基础模型提供者开放应用程序接口,形成“模型即服务”(Maas)产业生态,向下游部署者提供模型服务。其二,基础模型提供者公开发布模型或其部分元素,其他部署者可根据许可条件使用或修改模型。其三,基础模型提供者将模型服务直接嵌入到网络页面或其他应用程序中,向终端用户提供内容生成服务。
就此而言,生成式人工智能系统的“研发生产—应用”可以划分为两种商业模式:“基础模型研发—基础模型微调后进行服务供给—终端用户使用”与“基础模型研发—基础模型垂直部署进行服务供给—终端用户使用”。就第一种模式而言,研发生产阶段的核心义务主体应确定为基础模型提供者与专业模型研发者;应用阶段的义务主体应确定为生成内容服务提供者。就第二种模式而言,系统研发生产阶段与应用阶段的核心主体都是基础模型提供者。
基础模型的训练数据与生成结果之间的关系,并非仅存在算法黑箱的不可解释性,在达到某个临界点时,还会呈现涌现特征。鉴于基础模型的技术特征及其对社会的强大赋能效应,规制重点应当集中于微观层面的数据保护与宏观层面的系统安全。
就数据保护而言,基础模型研发要求更大规模的数据训练,构建数据保护利益与模型经济价值之间的权衡机制至关重要。数据处理方式需依据具体场景由处理者判断,难以预设明确行为标准。因此,行政监管应制定程序规则,如个人信息保护影响评估及负责人职责等,通过规范内部管理程序促使研发者将个人信息保护目标嵌入数据处理程序。就系统安全而言,基础模型具有通用性,行政监管应当关注系统安全而非具体场景下的算法影响。当前,宜在激励相容监管理念指引下,对普通基础模型进行包容审慎监管,并对达到一定规模者提出安全保障要求。欧盟已实施基于风险的分层监管,为达到一定规模的基础模型设定安全标准。核心安全保障机制为“对抗测试”,即验证大模型是否会产生有害内容、不可预测的系统局限或者与系统滥用有关的潜在风险等。法律应局限于规范“对抗测试”的基础程序,激励、引导行业形成符合当下最优技术水平的测试标准。
算法影响评估根据不同技术设计可能引致的不同应用影响,选择风险最小、最符合社会伦理规范的设计模式。相较于传统人工智能系统,生成式人工智能价值链可能存在两个研发阶段,如何设计影响评估制度构成监管挑战。这也成为欧盟《人工智能法案》立法过程中关于生成式人工智能规制最具争议的议题。2023年6月的草案文本提出,由于基础模型应用必然包含高风险领域应用,因此基础模型提供者需要承担高风险人工智能系统提供者义务。但是,最终法案减轻了基础模型提供者风险管控负担,转由专业模型研发者承担。专业模型研发者基于特定应用目标训练基础模型,能够感知人工智能系统的应用场景且控制了用户界面,对生成内容进行了预先谋划与控制。因此,从风险控制能力出发,法律要求专业模型研发者开展影响评估符合效率目标。事前监管应确立算法影响评估核心程序,涵盖参与者、评估步骤及记录要求。实际操作中,应鼓励医疗、心理、法律、金融等专业应用领域制定技术标准与伦理准则,指导研发者进行算法影响评估:将基础模型部署至具体领域会产生何种社会影响,缓解负面影响的措施是否适当?基础模型部署要解决何种功能性问题,而衡量是否实现该功能的具体指标是什么,为什么选择该指标而非其他指标?测度该指标的具体数据集是按照何种标准选取的,其收集、维护、清洗过程是什么,是否体现了现实决策环境的完整性?与其他方案相比,该算法决策方案在涉及利益相关方影响方面是否“中立”,这一结论是否经过测试和验证?
在具体应用阶段,生成内容造成危害的场景包括用户与机器交流场景以及用户使用传播场景。前者如,生成内容可能侵犯他人著作权与名誉权、错误虚假信息误导用户等。后者如,传播侵犯他人权利的内容、传播错误虚假内容、过度依赖生成内容减损教育秩序与创作伦理等。法律规制应用阶段的核心目标是构建人机关系秩序。生成内容由人与机器共同完成,终端用户的提问输入行为与传播使用行为对于促成损害结果至关重要。行政监管应当规范终端使用者、内容受众与机器的交互方式,从而引导他们开展高效的风险预防行为。当前,行政监管应当针对内容服务提供者,要求其通过规范“提示”引导用户输入,并完善“内容标识”来协调受众对生成内容的信任程度。
就“提示”而言,内容服务提供者应当在技术上防范用户恶意诱导生成违法内容、引导用户输入合理问题,并明确服务适用情境,引导终端使用者合法合理使用技术。就“内容标识”而言,虚假信息对公共秩序与个体权益的危害不仅源自内容本身失真,更在于公众因不合理信任而形成认知与决策偏差;内容标识提示生成内容来源,助推信息受众理性审视内容可靠性,并检索更多信息论证生成内容是否合理,从而赋能公众控制生成内容对其认知、决策与行为的影响程度。
当前,提示监管取得较大共识,但内容标识监管仍待完善。一方面,法律要求的标识范围与方式并不清晰。内容标识制度设计应当平衡技术发展与权益保护,依据内容种类与行业应用,确定显性标识、隐性标识、提供者主动公示标识与提供者依据申请公示标识的具体适用。另一方面,内容标识技术发展滞后,法律有待为产业界提供有效激励。为此,法律设置的内容标识公法义务之核心在于完善合作规制架构,一方面建立显性标识与隐性标识、不同行业标识要求的基本程序框架,另一方面激励产业层面发展标识技术,完善生成内容检测追踪。
人工智能价值链各环节紧密相连,核心主体义务的履行依赖其能够获取的信息,行政监管亦需要建立一定程度的透明机制,确保核心主体具有充足信息进行风险防控。就生成式人工智能系统而言,这种透明机制应当包括上游向下游传达信息、下游向上游反馈信息。一方面,基础模型性能信息对于专业模型研发者进行风险管控至关重要。基础模型提供者应当向部署者提供关键开发步骤、部署环境配置、模型性能、扩展和调整性能、故障排除、更新维护以及特定应用环境下的风险警示等信息,赋能部署者充分理解基础模型的能力与局限,从而在适配下游应用时提升风险管控能力。在此过程中,需妥善平衡技术信息共享与知识产权、商业秘密保护的关系。另一方面,专业模型研发者、生成内容服务提供者在具体应用场景中发现的模型风险信息或系统性偏差,亦应及时反馈给基础模型研发者,并通过协议等方式与基础模型研发者分配风险缓解责任。
面对生成式人工智能技术的迅速迭代,侵权机制的行为规制作用在于,它能够在行政监管确立的底线规范基础上,为价值链主体设置符合具体场景特征的更高标准的注意义务。同时,侵权机制还具备基础性的信息生产功能,通过与监管的协作互动,为监管部门不断发展规制规范提供必要信息支撑。
价值链多元主体与机器自主学习特征,成为了侵权责任认定难题。一种较为流行观点认为,可以适用代理人责任或雇主责任原则,即将人工智能与其管理人之间关系类比为代理人与被代理人或雇员与雇主的关系,代理人或雇员的行为后果由被代理人或雇主承担。另一种观点则主张赋予人工智能法律人格以承担责任。然而,人工智能缺乏独立人格,不符合代理人责任、雇主责任、民事主体责任的法律构成要件。同时,这种责任设置也未能充分考虑到价值链存在多元主体的实际情况。一个更为可行的方案是,按照价值链行政监管的逻辑来设置侵权责任,依据研发生产环节与应用环节的区分,分别为人工智能系统提供者与使用者设定相应的产品责任和使用责任。欧盟当下侵权责任立法动态即体现了这一思路:《产品责任指令》结合人工智能技术特征,拓展“产品”与“损害”的范围,为人工智能产品提供者设定产品责任;《人工智能责任指令(提案)》则为人工智能使用者与非产品类人工智能提供者设置过错责任。基于价值链的研发生产与应用环节划分设置侵权责任,将行政监管确定的核心义务主体及相应行为规范适用于侵权责任认定,这符合“由能够以最低成本预防风险者承担责任”的责任配置理念,有助于加强行政监管与侵权责任在行为规制层面的衔接。
其一,人工智能产品生产者享有更多技术信息、影响产品设计的能力,且有能力通过定价方式分散风险成本,要求生产者承担传统产品责任,符合行为激励效率。具体制度设计的核心要义在于,在个案中明确“产品缺陷”内涵与“风险发展抗辩”。就“产品缺陷”而言,事前监管规则构成底线行为标准,法院在具体个案中综合技术发展水平、技术收益与风险缓解成本对比等因素,判断产品是否存在设计缺陷、制造缺陷与警示缺陷。就“风险发展抗辩”而言,鉴于人工智能系统具有自主学习特征,针对由学习产生的不可预知风险,侵权机制可以给那些对个体权益与公众生活产生重要影响的人工智能系统提供者分配更为严格的责任,从而激励提供者增加投入,加强人类对技术的控制能力;对于其他人工智能系统,有必要通过引入“风险发展抗辩”理念,以明确在人工智能系统自主学习过程中产生的部分损害,提供者可以享有责任豁免,从而实现由整体社会来承担人工智能“剩余风险”的风险分散效果。其二,在人工智能系统应用阶段,行政监管规则通过要求提供者进行信息公示与要求使用者进行影响评估的方式,来规范人与机器之间的交互关系。如果使用者没有依照提供者提供信息进行机器操作或没有进行影响评估,且在此过程中造成损害,则当然需要承担侵权责任。对于构成特别高风险的人工智能系统,能够最终靠设置使用者严格责任来激励其减少行为量;对于一般AI系统,则应设置过错责任,依据机器的自动化水平、使用者对机器的控制能力、前端使用者与机器后端操作者之间的关系、使用者采取预防措施的成本与收益对比等,在具体场景中调整使用者注意水平。
在实践应用中,生成式人工智能致人侵害主要包括两种情形:一是生成式人工智能服务提供者直接向用户提供服务的过程中对用户或第三人造成损害;二是用户利用该系统向第三人提供服务的过程中或用户传播系统生成内容,对第三人造成损害。由此看来,前者侵害源于技术系统缺陷,应当适用生产研发阶段责任,后者侵害源于使用者的使用行为,适用人工智能应用责任。现阶段,生成式人工智能侵权责任难点在于生产研发阶段责任,即生成式人工智能服务提供者责任。
生成式AI系统最初依托互联网与用户对话生成内容,因此,我国监管部门一直依赖互联网内容规制理念开展制度设计。内容规制理念也深刻影响了侵权责任探讨。既有研究多从“网络服务提供者”与“网络内容提供者”界分视角,分析生成式人工智能服务提供者的法律性质,进而探讨其对生成内容的民事责任。但是,网络服务提供者责任与网络内容提供者责任都着重于规范与用户直接交互的内容输出端行为,缺乏对“模型即服务”商业模式下模型提供者的行为评价。而且,当下生成式人工智能技术既可以作为独立软件,亦可以嵌入至硬件设备中提供服务,既能应用于决策辅助型人工智能场景,也能发展为替代型人工智能应用。在生成式人工智能服务对各行各业赋能的背景下,现有网络内容侵权责任规则难以回应技术缺陷带来的负面影响。
为充分激励生产研发阶段的安全预防投入,一个更可行的路径是,生成式人工智能服务提供者适用产品责任。但是,产品责任只适用于产品,排除服务的适用。生成式人工智能软件可以被嵌入至产品中,亦可以作为独立软件提供服务,后者可否适用产品责任不无疑问。解决该问题关键在于,从功能主义视角分析产品责任适用的制度目标。区分产品与服务的制度理念在于:产品具有批量生产、规模销售的特点,生产者能够最终靠定价机制分散风险,因此适用严格责任符合风险最优预防理念;服务供给具有专业性与个性化特征,要求服务提供者承担严格责任会减损服务质量,因此服务提供者更适宜适用过错责任。生成式人工智能作为一种软件,具有批量生产、规模销售的特点,其是面向不特定用户而非提供一对一定制化服务。同时,提供者能通过定价机制来分散风险,这与产品责任的制度目标相契合。正是基于人工智能时代软件服务的特殊性,欧盟《产品责任指令》修订案拓展了“产品”范围,将独立软件、附加软件、重要人工智能服务等数字服务纳入了“产品”范畴。
作为不真正连带责任,产品责任亦有助于协调模型服务供给者与模型服务调用者之间的关系。因产品缺陷造成损害,被侵权人既可以向生成式内容服务提供者请求赔偿,亦可以向模型服务提供者请求赔偿。生成式内容服务提供者、模型服务提供者向用户承担责任后,可以根据模型卡技术记录、模型服务提供者说明等信息,明确价值链其他主体是不是真的存在不当行为并向其追偿。
通过精细化的产品责任制度设计可以实现侵权责任与行政监管的有序互动。通常来说,产品缺陷包括制造缺陷、设计缺陷、警示缺陷三种。制造缺陷关注产品性能和特征,只要产品在物理上偏离既定设计就需要承担严格责任。设计缺陷与警示缺陷关注生产者、设计者行为的合理性,需要综合安全、效用、市场需求等多种因素考量,在认定上融入了过错责任的因素。其中,设计缺陷的认定是生成式人工智能产品责任的难点,亦构成撬动侵权与监管进行效率衔接的关键着力点。
根据《中华人民共和国产品质量法》第46条规定,缺陷判断标准包括不合理危险与技术标准两类。技术标准作为行政监管规则,构成缺陷产品认定的底线规则,但如何判断是否构成不合理危险,欠缺明晰标准。欧盟与美国的缺陷判断标准成为我国司法实践的重要参考。欧盟确立了合理期待标准,如果产品安全没有达到人们的合理期待即存在缺陷。美国确立了风险效用标准,强调对产品的安全设计进行成本—收益比较,判断是否存在更好的替代设计。这两种标准都不符合生成式人工智能技术特征。就合理期待标准而言,普通消费者难以理解生成式人工智能的技术机理,往往会产生不切实际的期待。就风险效用标准而言,生成式人工智能正经历迅速迭代,而行业内尚未就最佳实践达成共识,因此难以判定何种替代设计更为优越。这表明,法院在判断技术运行逻辑、技术的社会影响、技术的社会选择方面存在专业弱势,应当依赖行业知识形成多元主体技术共治。就此而言,法院在判断生成式人工智能是否构成设计缺陷时,有必要在行政监管规则框架下,综合考虑行业自治因素。
生成式人工智能行政监管以抽象绩效标准与内部管理型标准为主:前者体现为基本目标导向要求,如模型训练使用具有合法来源的数据和基础模型,增强训练数据的真实性、准确性、客观性、多样性等,但法律并未给予“合法来源”“真实、准确、客观、多样”明确界定标准;后者体现为程序性要求,如开展影响评估、对抗测试、在发现违法内容后进行模型优化,但具体的程序步骤与标准仍然非常模糊。行政监管设置的抽象绩效标准与内部管理型标准并不告知价值链主体如何行为的具体方式,而是为其勾勒出大致目标与决策框架,留待社会自我规制补充规范细则。就此而言,法院应当以行政监管设置的抽象绩效标准与内部管理型标准为框架,在具体个案中判断企业自我规制是否达到了合理注意要求。问题关键在于,在行业共识尚未统一时,法院如何确定符合合理注意的行业实践?尤其是当下,生成式人工智能规制主要依赖软法规范,尽管存在多种伦理原则和技术指引,但同时也面临着伦理洗涤、伦理规范欠缺执行力、行业间的逐底竞争等问题,这为法院评判行业实践带来了挑战。
一方面,生成式人工智能研发实践的重要特征是专业性,即依赖专业团体的知识与能力,因此相应的合理注意应当以专业团体的合理注意而非一般理性人的合理注意为标准。一般来说,专业性合理注意标准包括行业一般习惯标准与信义义务标准,前者强调根据该领域的一般实践来确定合理性,后者强调专业团体以受托人身份承担更高标准的忠实义务。行业一般习惯标准关注现有技术水平下的行业实践,更适合生成式人工智能发展现状。原因在于,在技术发展高度不确定背景下,负面结果是行业实践固有的产物,且技术实践发展会自行消纳负面结果的产生原因。因此,应当将行业一般习惯标准适用于生成式人工智能研发技术缺陷判断,并根据技术发展不断调适缺陷判断标准,以此发挥侵权机制场景优势,促使科技稳健融入社会。另一方面,现阶段行业实践在生成式人工智能研发的有效性、安全性、问责性、可解释性、公平性等方面仍存在诸多分歧。在共识难以达成时,尊重现有技术水平下的不同实践方法比确定单一合理标准更合适。评估自我规制是否完善的核心在于内部管理程序是否规范,因此法院亦应当以程序为抓手,通过评估技术研发实践所遵从的标准或行为守则的制定程序、技术研发的伦理审查程序、该实践在行业内的接受程度等,判断不同实践是否达到合理注意标准。同时,基于行政监管确定的风险规制框架,对于达到一定规模的大模型研发以及应用于高风险领域的生成式人工智能服务,法院应当适用更严格的缺陷判断标准。
通过这种方式,侵权机制将激励行业层面不断完善自我规制、探寻最佳技术实践。同时,对于法院在个案中认可的达到高标准的部分实践,亦可以推动监管部门将其转化统一监管规则,以此实现软法与硬法的衔接与互动。
《政法论坛》是中国政法大学主办的法学学术期刊,其前身为1979年创刊的《北京政法学院院报》,1985年更名为《政法论坛》,由彭真题写刊名。历经四十余载的风雨洗礼与实践发展,《政法论坛》已成为引领学术潮流、促进学术交流、分享学术智识、承载学术思想的重要平台。自创刊以来,《政法论坛》始终秉持政治性与学术性相结合,理论研究与法制实践、教学实践相结合的办刊方针,着重反映法学研究的新成果和法制建设的新进展,培育源自本土的理论话语,不断提升期刊理论品质。现为中文核心期刊、法学类核心期刊、《中国学术期刊综合评价数据库》来源期刊、《中国人文社会科学引文数据库》来源期刊、《中文社会科学引文索引》(CSSCI)来源期刊,同时也是教育部社科期刊“名刊工程”入选期刊,被中国高校社科期刊学会评为高校社会科学名刊,入选第一批国家社科基金资助期刊。
自建知识库是智能写作4.0的一大创新亮点,它赋予了用户构建个性化知识体系的能力。这一功能不仅支持单篇对话的存储,使得用户可以轻松回顾和整理过往的交流内容,而且通过向量检索技术,用户能够实现对知识库内容的高效检索。这意味着,无论您的知识库多么庞大,您都可以通过关键词或短语快速定位到所需信息,极大地提升了信息检索的准确性和便捷性。
划词检索法宝全库数据功能是智能写作4.0的另一项革命性创新。用户在阅读或编辑文档时,只需轻轻一划,选中的文本即可触发智能检索,系统会立即从法宝全库中检索出相关数据和信息。这一功能不仅极大地简化了信息查找的过程,而且通过实时更新的数据库,确保了检索结果的时效性和准确性,使得用户能够快速获取到最相关的资料和数据。
智能写作4.0的智能翻译功能,支持多达19种语言的互译,覆盖了全球大部分主要语言。这一功能不仅能够实现文本的即时翻译,而且通过先进的算法优化,确保了翻译的流畅性和准确性。无论您是需要将中文文档翻译成英文,还是需要将西班牙文翻译成法文,智能写作4.0都能为您提供准确、自然的翻译结果,让您的跨语言沟通和创作更加轻松。
智能写作4.0提供了6000+的文书模板,覆盖了法律、商务、教育等多个领域,满足不同用户的需求。这些模板由专业人士设计,确保了其专业性和实用性。此外,智能写作4.0还支持自建文书模板,用户可以根据自己的需求和喜好,创建个性化的模板,这不仅提高了文书创作的效率,而且使得文书更具个性化和专业性。
智能写作4.0赋能司法案例检索报告功能,是法律专业人士的得力助手。它不仅能够检索到最新的司法案例,而且通过智能分析,为用户更好的提供案例的详细报告,包括案件的基本情况、判决结果、争议焦点、法律依据等关键信息。这一功能不仅极大地提高了法律研究的效率,而且通过深入的案例分析,帮助用户更好地理解法律条文和司法实践,为法律实务工作提供了强有力的支持。
本文声明 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北律信息网(北宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。