李文超、武一帆:算法侵害行为的事前规制与侵权救济研究
李文超
吉林大学法学院民商法博士研究生
北京互联网法院审管办副主任
四级高级法官
武一帆
北京互联网法院法官助理
摘 要
本文从算法规制的本质主义理论和实用主义理论出发,引入技术层面的算法透明原则和法律层面的算法问责原则,通过事前完善算法备案和算法技术行业标准,事后配置个体权利对抗算法滥用,例如明确“算法解释权”的适用标准,如算法告知规则、算法技术原理解释规则等,同时可以参照民法典关于产品责任规定,进行个案中审查、责任分配,辅以公益诉讼机制,以权利配置、追责机制和司法能动三个维度,提高算法的透明度并明确算法侵害的可问责性。
关键词
算法 侵害行为 事前规制 救济规则
随着大数据、云计算、人工智能等信息技术的飞速发展,互联网平台迅速崛起,各类算法深度应用,数字经济蓬勃兴起,数字正义成为人们更高的追求目标。然而,互联网平台算法正如一把双刃剑,其为社会公众带来方便快捷的同时,也带来了一系列风险问题。在此背景下,通过何种途径以有效防范互联网平台算法应用风险,促使算法安全发挥其功能效用,逐渐成为学界与实务界关注的焦点所在。
本文以互联网平台算法风险为分析对象,聚焦当前存在的客观侵权行为复杂隐蔽、主观过错要件认定困难、事后追责难以有效救济等治理困境,从认知偏差、监管缺位、法律滞后三个方面探寻其原因所在。在前述分析基础上,从算法规制的本质主义理论和实用主义理论出发,引入技术层面的算法透明原则和法律层面的算法问责原则,围绕事前、事后两大阶段,权利配置、追责机制和司法能动三个维度,平台企业、监管机构、行业组织、司法机关四大主体,构建一整套互联网平台算法风险治理体系。
一、样本检视:算法侵权行为司法救济之困境
“算法是一种有限、确定、有效的并适合用计算机程序来实现的解决问题的方法”。算法应用则是对数据的改造和再生产。因此,基于算法的技术逻辑和推理规则,在算法诞生之初人们就期待通过算法的技术中立获得数字正义。但随着社会实践的深入,我们发现,基于数据分析的互联网平台算法暗藏风险,且存在客观侵权行为复杂隐蔽、主观过错要件认定困难、事后追责难以有效救济等治理困境。
(一)算法介入的客观侵权行为复杂隐蔽
基于算法的技术特性,社会公众在享受平台算法带来便利的同时,很难了解算法背后的运作方式和目的意图,更难以发现平台算法背后所隐藏的侵权行为。通过对近年互联网算法相关典型案例进行梳理(如表1),算法介入客观侵权行为的隐蔽性主要体现在以下几个方面:
其一,平台经营模式客观诱导侵权行为发生。对于平台而言,市场竞争的核心就是紧扣用户心理。为精准满足用户多元需求,平台争先创新经营模式并应用算法最新技术,“配音秀”、“陪你看”、“听音识剧”、“ZAO换脸”等应用平台先后出现,但在此过程中“创新”与“侵权”风险并存、界限难分,甚至存在为吸引用户群体不惜诱导侵权行为发生的倾向,例如有的配音平台为获取用户流量,在明知用户难以获得授权情况下,仍使用算法工具,鼓励用户上传热门电视剧的配音素材并向其他用户进行推荐。
其二,个人信息及隐私被平台算法“强制授权”。当前,互联网平台与社会公众日常生活逐步实现“深入绑定”,过度搜集个人信息、“变相强制”用户授权的行为频繁发生,进而描绘用户画像,针对其需求精准推送信息。例如有的APP在用户不同意开启相关权限的情况下就无法正常安装或运行;有的APP则在未明确提示的情况下,就以一揽子协议方式获取了用户授权。
其三,平台大数据杀熟压榨用户“消费剩余”。网络购物平台和网络服务平台的“大数据杀熟”行为,早已引起社会广泛关注,行政部门也曾出台相关规定要求保障消费者的公平交易权。但随着算法的快速迭代,相较于初代较为明显的欺骗性差异定价,司法案例中基于复杂算法而自动生成的产品价格组合更具隐蔽性、更为合理化,“大数据杀熟”的行为更加隐蔽,侵权界定仍然有待明晰。
(二)算法归责的主观过错要件认定困难
主观过错是平台承担民事侵权责任的重要要件。根据我国的现行法律规定,平台作为网络服务提供者存在主观过错的认定要点在于“是否知道或者应当知道该侵权行为”以及“是否采取了必要措施”。然而,随着算法的迭代升级和广泛应用,平台运行日趋自动化,人为干预不断减少。尤其是以复杂算法为中心的信息流自动推送技术的出现后,平台对推送行为的介入和控制能力一定程度上有所减弱,作为技术应用者的平台也难以对用户被推送信息进行跟踪和再现,信息推送由平台主观推荐转为机器自动选择,其背后的算法逻辑基础则是用户在平台进行的先前选择和喜好分析,“技术中立”和“行为人和责任人分离”情形越发常见。因此,在司法实践中,“侵权行为实施人为用户”“对平台存在的侵权行为并不知晓”“已尽到与信息管理能力相适应的注意义务”“已采取必要措施”等理由成为了平台的重要抗辩事由,平台主观过错认定成为难题。
(三)算法导致的事后追责难以有效救济
当前,我国对平台算法的监管主要遵循事后问责思路,即主要在损害结果产生后根据被侵权人请求要求平台承担相应责任,但这种事后追责机制往往难以实现对受损害权益的有效救济。一方面,主体地位悬殊,个体追责困难。在新的数字社会权力格局逐渐形成的当下,以互联网平台为代表的信息巨头们占有海量数据并拥有数据主权(Data Sovereignty),而算法权力(Algorithmic Power)就根源于此。算法权力的崛起使得互联网平台企业在与个体的抗衡中处于极大的优势地位,从而造成个体在寻求法律救济的过程中往往面临着成本高、取证难、周期长等问题。另一方面,侵权行为扩散快,受损权益难以计算。从个体权利角度来看,以平台算法侵害作品著作权为例,当作品被侵权人擅自上传至平台后,平台算法将会迅速“推荐”给每一个可能感兴趣的用户,传播速度快、影响范围广且影响后果难以消除。从公共权益角度来看,互联网平台算法辐射公众切身利益的同时,也在一定程度上影响社会秩序、公共利益或国家安全,互联网公共利益,个体私益在遭受侵害时尚能救济,但其对社会公益的损害往往难以填平。
二、追本溯源:算法侵权救济困境之成因分析
算法通过平台积累数据发生作用,其风险的产生既源于公众对平台和算法的特性认知偏差,也有传统互联网模式下的监管缺位、算法法律体系自身的滞后缺陷等原因,上述因素互相交织共同导致了算法侵权后权利救济困境的产生。
(一)认知偏差:互联网平台和算法特性叠加
一是平台的公共性与逐利性。一方面,互联网基础性平台具有很强的社会性与公共性,其自身的多重角色和超大规模要求具备中立性、公平性和道德性。平台的核心功能主要是匹配双边或多边市场,然而,正是其特殊的双边/多边市场结构,决定了平台具备市场参与者与组织者的双重身份,扮演了信息壁垒打破者与重构者的双重角色,较大程度上表现出来非竞争性和有限排他性的特性。特别是那些规模很“大”的超大型平台企业,一定程度上已经成为具备准公共产品属性的基础设施。另一方面,互联网平台企业本质为营利法人,其算法目标为最大化实现商业目标和自身利益。因此,即便其算法应用的初衷符合法律精神或宗旨,但其算法设计往往可能因为市场经济利益而或多或少忽略法律价值和权利保障的目标,从而引起侵害社会公众法益、影响市场竞争秩序等风险。以美团、饿了么等餐饮外卖平台为例,其开发的配送系统运行智能算法和深度学习技术,要求外卖骑手不断优化路线,外卖骑手越努力,系统就会自动修改参数,缩短配送时间要求,致使其只能通过逆行、闯红灯、超速送餐,以避免因为延误而被罚款,从而致使交通事故频发,直接危害了骑手人身权益和社会公共秩序。
二是算法的公共性和权威性。在“算力即权力”的时代,算力作为一种重要的基础资源,具备成为公共资源的潜力。尤其是在算法与商业平台广泛结合的背景下,以阿里巴巴、腾讯、百度为代表的互联网平台企业掌握着个体的信息数据,控制着用户对资讯的获取方式,改变着社会公众的消费习惯和生活方式。算法的自动决策性一方面有利于满足公众高效便利的生活需求,但另一方面算法自动决策过程具有单方强制性,这就意味着一旦面临不合理的算法决策,个体极易遭受法律和经济的重大不利风险,例如被迫退出某一数字领域,或者忍受其意思自治空间遭受压缩。对此,有学者指出,算法自动决策的本质是数字经济时代社会资源的分配与再分配,隐藏在算法决策背后的是对个体而言具有强制力的行为规范。该算法规范与致力于增进社会公共利益的法律规范不同,其本身不具备社会共识性,反映的仅是以平台为代表的个别优势地位者基于利益最大化目标而确定规则的“强者权利”,即所谓的“算法权威”。
(二)监管缺位:传统互联网监管机制适配性差
在我国对算法行为的规制实践中,算法规制并未与网络治理或互联网规制区分开来,算法的监管思路和监管行为大都嵌套在互联网空间治理之中。但是,从来源和特征来讲,新兴的算法风险与传统的互联网风险具有显著区别。传统互联网风险包括网络诈骗、虚假信息传播、网络赌博等行为,其传播主要依赖线上的数据流或信息流,风险规制对象往往为互联网企业及服务器管理者。与之相比,算法风险的发生场景和传播场景则更为灵活多样,其可以在广泛的设备或终端之间运行,甚至从程序编写到算法运行再到风险产生都可能不需要网络连接。因此,算法风险所具有的形态多样、高度分散且随时产生的特征,决定了算法风险规制难以像传统互联网风险规制一样,仅采取行政监管主导、平台责任强化、严控信息流节点等方式,而是需要“化零为整”,从风险链条的中间节点扩展至前端与末端,既要强化算法风险的前端监管,更要赋予位于风险链条末端的个体以更为充分的防御手段和救济途径。
(三)法律滞后:算法法律规范体系存在缺陷
近年来随着互联网平台算法纠纷的频发,为更好从法律层面上对算法进行规制,我国从2022年3月1日起, 国家互联网信息办公室、工信部、公安部、国家市场监管总局联合发布的 《互联网信息服务算法推荐管理规定》施行。这部我国专门以算法作为规制对象的部门规章, 与2021年9月九部门出台的《关于加强互联网信息服务算法综合治理的指导意见》以及《网络安全法》 《电子商务法》《数据安全法》《个人信息保护法》等法律法规一起构建了我国算法治理的基本法律框架。部分地方政府也探索完善数据、算法等相关规范,例如深圳市公布《深圳经济特区数据条例》对“不全面授权就不让用”、大数据“杀熟”、个人信息收集、强制个性化广告推荐等问题说“不”。但从总体来看,当前有关互联网平台算法滥用及用户权利保护的法律法规存在概念界定不甚清晰、适用范围较为模糊、事后救济措施不足等问题。例如我国《网络安全法》第41条明确了网络运营者收集、使用个人信息需公开收集、使用规则,明示其目的、方式和范围,但并未明确该公开和明示的义务标准和行为程度。也有学者指出,《民法典》第1032条列举的“刺探、侵扰、泄露、公开等”侵害他人隐私权的行为方式是否涵盖数字企业的算法行为?尽管目前相关法律及草案从某些方面明确了互联网平台在使用算法过程中应承担的义务,但义务本身零散性、缺乏针对性的特点直接影响了算法侵权纠纷的法律适用,并使得受到算法侵害的当事人难以得到及时有效救济。
三、价值选择:算法侵权行为救济路径之理论思辨
本质主义(Essentialism)和实用主义(Pragmatism)是算法规制理论的两大倾向,并由此衍生出算法透明原则和算法问责原则,前者从算法技术本质出发,强调提高算法的透明度,后者则从法律关系角度出发,强调事后问责和权利救济。
(一)本质主义与算法透明原则
以雷恩·卡洛( Ryan Calo)为代表的的本质主义支持者认为,技术规制的前提是关注技术特性本身,只有在弄清算法技术特性的基础上,才能完成对算法的有效规制。因此,在本质主义学者看来,提高算法透明度是打破算法黑箱、消除算法歧视、阻止算法权力异化最行之有效的手段,并由此提出以规制算法为目的的算法透明原则。
从域外立法和实践来看,提高算法透明度的手段有很多,主要包括引入算法影响评价( Algorithmic ImpactAssessments)制度、明确算法解释原则、设立统一算法技术标准等等(见图1)。阳光是最好的消毒剂。无论是在法学、政治学还是经济学领域,透明原则已经成为现代政府规制的基本准则。民主政治实现透明有两大基本益处:一是增强公权力机关的可问责性;二是保护公民知情权以免遭专权独断。在互联网时代,透明原则延伸到在算法领域就是算法透明原则,其目标就是打开算法黑箱促使阳光洒满整个算法自动化决策的过程。一方面,算法透明可以赋予算法应用对象一定范围的知情权,以有利于第三方对其实施监督,并提出客观公平合理的质疑。另一方面,算法透明也可以让算法控制者更具有可问责性,即通过事前明确算法控制者信息、算法应用场景、算法潜在风险、风险应对手段等事项,以更好监督其是否履行相关风险防范义务和补救措施。
(二)实用主义与算法问责原则
与本质主义不同,以杰克·巴尔金(Jack Balkin)为代表的实用主义者认为,面对技术规制问题,法律人要重点考量的是技术所带来的权力配置和社会关系变化,而非过多探究不断变化的技术本质,因为这既不现实也不可行。正如乔纳森所指出那样,人们在应用技术时,既经常背离研发人员的初衷,也可能在应用过程中不断改进技术。因此,作为本质主义色彩浓厚的事前规制手段,算法透明尽管在某些情形下有可能实现“防患于未然”的作用,但由于技术发展是动态化、多维度、不可测的过程,其防范损害发生的成本较高,而且收效也难以得到保证导致其成本收益更显劣势。
对此,实用主义更倾向建立从技术带来的法律关系变化后果角度寻求对算法的规制和对当事人的救济,因此算法问责原则被广为支持。算法问责的最终目标是使得遭受侵害的个体获得合理救济。首先,考虑到平台与用户之间算法权力的不平等,如何为社会公众提供新型权利以使其获得抗衡滥用算法权力的权利就显得至为重要。而且这种新型算法权力不应是零星的碎片,而应是体系性的权利束,以具备全面防御算法风险的能力。其次,人工智能时代的互联网平台算法监管,既需符合平台的底层技术逻辑,也要穿透平台运行技术面纱,将监管触角和追责视角直指其背后的算法责任。最后,考虑到平台算法危害所具有的分散性和群体性,如何更好发挥司法能动性以给予受损害对象及时有效救济也是亟需考量的问题。
总而言之,从技术层面上看,算法透明原则需要规制者事前清楚目标算法的本质,并根据其特性予以规制;从法律层面上看,算法问责原则要求规制者考虑算法的实际运行结果,并根据其背后的权责变化予以规制。我们认为,算法透明原则和算法问责原则本质上并不存在冲突,要建立对算法行之有效的规制路径需要同时引入算法透明原则和算法问责原则,提高算法的透明度并明确算法的可问责性。
四、前路展望:算法侵害行为的事前规制与侵权救济
算法法律规制的本质是算法风险防范与算法设计应用之间复杂的价值平衡,即受算法影响的法益与自由利用算法之利益间的价值平衡(见图2)。结合上述分析,应当从事前和事后两个阶段考量,明确算法规制主体职责,突出个体权利救济。
(一)事前规制:重在算法风险防控
互联网平台算法的事前规制强调预防而非救济,重在全面权衡而非个体正义。在算法时代,预防风险与实现损害救济同样重要,甚至在某种意义上讲更为关键。
1. 监管机构:建立算法备案制度
从事前风险规制角度来看,算法备案有利于确保算法应用是按照统一技术标准进行设计的;从事后追责角度来看,有利于及时明确算法风险成因并确定相关责任主体。基于算法备案的基本价值,其备案内容应当包括:算法基本信息(如时间、开发者、控制者等信息)、算法应用场景、算法技术标准、算法影响评估分析等。互联网平台应当在算法研发后投入应用前,准备上述信息向所在地的算法监管机构申请备案。算法监管机构在接到备案申请后,应当对算法进行形式上的初步审查,并对上述备案内容的完整性和真实性进行核查。
有学者认为,监管机构应当对备案过程中发现的风险进行剔除,以保证投入应用的算法符合技术标准,并对可能存在重大风险的算法有权决定不予备案。但我们认为,算法备案并非行政许可,算法研发者仅需提交符合法律法规的备案材料即可,监管机构经审查材料完整真实就应接受备案,考虑到算法技术的复杂性和审查要求的专业性,如要求监管机构必须审查发现算法技术风险,既在实践操作上不现实,也可能会过多干预算法应用,导致阻碍技术创新。对于研发者而言,一旦取得备案登记文件,就可将算法转入应用阶段。但在算法备案后,如又出现算法修改情况的,则需视情况向监管机构作出说明,如监管机构认为修改后的算法结构或功能发生实质性变更的,有权要求研发者进行重新备案,以便司法机关更好地评判其是否履行相关风险防范义务和补救措施。
2. 行业协会:统一算法技术标准
算法的本质上是技术,对技术最为直接的规范方式就是制定标准,而标准则是实施法律监管的最直接依据。平台自身的逐利性使得“算法中立”较难实现,算法总是或多或少带有一定歧视和偏见,但是如果能够构建统一算法技术标准,就能在一定程度提升算法透明度,限制算法开发者或算法控制者的行为,从而减少甚至避免“算法歧视”的发生。这是因为,统一算法技术标准的核心内涵在于,确认某种算法在当前技术发展阶段的科学性与合理性。因此,为尽可能减少算法“公共性”所产生的风险,应当由行业协会等自律组织主导制定统一的相关算法技术标准。这种标准并非一成不变,而是需根据技术发展状况不断进行动态调整,以达到最有利算法目标实现和减少可能损害的目标。
3. 互联网平台:实施风险评估控制
一是强化算法影响评价。参考中国环境影响保护制度相关规定,互联网平台企业需要将拟投入应用的算法对社会公众的影响程度分为三类,即重度、中度、轻度,前两类应当进行影响评价分析,并制作算法影响报告书、算法影响报告表;最后一类仅需填写算法影响登记表。有关影响程度的考量标准应当包含但不限于以下三个因素:其一是算法危害所影响到社会范围大小;其二则是算法危害的法益数量及类型;其三则是算法危害之损失是否可以填补(见表2)。互联网平台企业作为算法的研发者或者控制者应当保障该影响评估报告的真实性、客观性和全面性,即如实说明算法技术的背景情况、运作机制、应用场景,客观描述算法应用的利益和风险,全面列明风险的监测、应急和补救措施等。
二是建立内部制衡机制。在以互联网平台公司为代表的数据和算法控制者内部设置独立的数据保护专员,这一立法实践已经在欧美等国家和地区较为成熟。在我国,近年来各地也开始探索建立首席数据官(CDO)制度体系,以提高数据治理和运营能力。与此同时,国内大型互联网平台企业也在探索设立首席数据官或是数据合规官职位,以协助、监管数据处理和算法应用行为,并与监管机构、行业组织以及用户主体等利益相关者进行沟通。结合上述平台公司内部的算法影响评价工作,数据合规官则有义务提供客观建议并监管评估工作开展。
(二)事后规制:重在个体权益救济
互联网平台算法的事前规制倾向于集体风险防范,但技术多变性和不可测性仍有可能给算法实施对象带来侵害,对此需要引入事后规制手段,对个体受损权利进行有效的司法救济。
1. 算法权利:配置个体权利对抗算法滥用
考虑到算法“强者权利”与个体力量对比之悬殊,应当从法律制度设计上给予数据主体相应的权利,以增加算法滥用的难度,使数据主体免受算法的侵害。算法解释权就是通过赋予个人对算法决策的解释权利,以实现对“算法权力”之滥用的适度制约,平衡算法控制者与行为对象不对称的权力关系,同时合理分配风险负担。从域外立法实践来看,欧盟《一般数据保护条例》(以下简称GDPR)在明确数据主体“算法知情权”的基础上,第13条第2款(f)项、第14条第2款(g)项之规定明确了算法控制者的“事前解释义务”,那么GDPR第15条第1款(h) 项之规定内含了针对具体算法决策的事后“解释权”。GDPR第22条第3款还赋予相对人与算法解释权相配套的算法异议权(见表3)。与欧盟综合式立法不同,美国算法规制立法虽呈现“碎片化”特点,但在金额领域信用评分与量刑领域风险评估方面也明确了算法决策的解释问题。对此,我国相关立法虽未涉及算法解释权,但有关个人信息处理的相关规定也有所体现。综上而言,涉及互联网平台算法的“解释权”权利主体为遭受算法决策不利影响的相对人,义务主体则为算法研发者或算法实际控制者,即互联网平台企业。从解释的标准与内容来看,正如GDPR第12条之规定,“控制者应当以一种简洁、透明、易懂和容易获取的形式,以清晰和平白的语言来提供”。
2. 追责机制:明确算法主体责任承担
从算法规制意义上来看,算法责任应为严格责任,即一旦算法在实践应用过程中产生风险或造成损害,算法研发者和应用者都应承担算法责任,不论事先是否已获得用户知情同意或是否仅为纯粹技术缺陷。一方面,通过对算法决策结果进行评判可以初步判断是否存在算法责任,另一方面,可以通过算法进行技术审查并结合侵权规则以最终明确算法责任分配。虽然当前我国并未明确算法侵权责任的承担问题,但可以参照我国《民法典》中产品责任规则逻辑分配算法责任(见图3)。如果侵权主体为算法研发者或算法应用者,受损害当事人既可向前者也可向后者主张算法责任。如果算法风险是由研发者造成的,应用者赔偿后可向其追偿,反之亦然。但如果因第三人过错而造成算法损害后果的,算法的研发者、应用者赔偿后,有权向第三人追偿。
3. 司法能动:引入互联网公益诉讼机制
公共利益是一个开放的且不断发展的,界定“何为公共利益”是准确判断某项诉讼是否为公益诉讼,是否可以适用民事公益诉讼相关条款的前提,我国现有法律法规并未对“公共利益”进行准确界定,仅在部分法律条文中以例举方式对其功能、作用及所涉领域予以明确,更未指出“公共利益”的具体衡量标准或判定因素。“互联网公益诉讼”之规定首次出现在《最高人民法院关于互联网法院审理案件若干问题的规定》中,其明确互联网法院集中管辖“检察机关提起的互联网公益诉讼案件”,进一步明确了针对算法侵害“公共利益”时的司法职能和程序设计。
维护公共利益是民事公益诉讼的基本价值所在。当前,互联网公益侵害纠纷主要存在于网络公共秩序、个人信息保护、网络空间净化、网络系统安全等方面,且大多呈现出侵害行为多元化、侵害后果扩散快、侵害主体不特定等特征,其中就包括互联网平台利用网络算法的侵害行为。例如“大数据杀熟”“平台二选一”等算法歧视、算法共谋等不法行为,侵害对象涉及不特定的群体,侵害范围影响广泛,危害互联网空间秩序和社会公共利益,其社会危害性不亚于不合格食品、环境污染给社会公众带来的侵害。传统的个案诉讼、代表人诉讼等制度安排难以满足保护互联网空间扩散性、不特定性公共利益的要求。
考虑到在互联网纠纷中,互联网平台等侵权人和用户主体等被侵权人之间尝尝存在“实力不均”的现象。有必要在现有法律体制之下,通过互联网民事公益诉讼机制引入强有力的外部规范机制,从侵害行为工具和侵害利益场域两个维度,从受案范围、启动程序审查、在线诉讼流程以及相应配套机制等不同层面明确算法侵害行为在互联网民事公益诉讼的范围体系的构造,使公益诉讼成为算法侵权救济的坚强后盾,有利于更好赋予受损害当事人以及时有力救济。
结语
数字时代,当算法被广泛运用于“人”之领域时,人类的共同关切就是如何运用好这把达摩克利斯之剑。因此,明确互联网平台算法风险治理困境、探寻背后问题成因、引入相关理论探究,并构建相应的法律规制路径体系,就具有重要的理论价值和实践意义。在互联网平台算法,人类应当具有独立且最终的决定权,以享有技术之便利,并保有“人”的自由、尊严与权利,最终促进数字社会整体之发展、文明之进步、正义之实现。
责任编辑:李琦
文章来源:《法律适用》2023年第3期
- 0001
- 0000
- 0000
- 0002
- 0000