王佳伟论文(刘颖王佳伟算法规制的私法道路)
刘颖
同济大学法学院
王佳伟
上海大学法学院
要目
一、问题的提出
二、规制的前提:算法的工具属性
三、规制的框架:信义义务的赋予
四、规制的工具:私法权利的证立
五、结语
算法的黑箱状态掩藏并固化了原有不平等的社会权力结构,产生了诸如算法歧视等失控问题。算法规制的私法进路在于明确算法控制者与数据主体的权利义务关系,以保障个人免受算法的规训。私法规制的前提是,算法应当被认定为工具,背后的控制者(开发者)应对算法失控的后果承担责任。算法决策离不开数据,算法失控问题的根源在于算法控制者收集的数据存在问题。个人作为数据主体对个人信息(数据)享有人格权,算法控制者提供服务以获得使用权,两者之间的法律关系应解释为信托关系,在信义义务的框架下算法控制者负有勤勉、忠实和信息披露义务。明确算法控制者的义务后,更应在私法权利谱系中寻找规制算法的工具,包括数据主体的个人信息权确立与隐私权夯实两条进路。
一、问题的提出
我们已经步入了一个围绕由算法、机器人和人工智能体所作出的社会和经济决策而构建起来的算法社会(Algorithmic Society),在这个社会中,算法、机器人和人工智能体不仅作出决策,而且在某些情况下执行这些决策。算法被用来帮助雇主识别、招聘、留住和奖励最有前途的雇员,被用来对罪犯的危险性和可改造性进行风险评估和管理,在合同场域下,算法被用来决定合同交易的时间和价格。随着线上线下界限的不断模糊,依托深度学习、大数据、物联网等科学技术的发展,算法已经成为各个领域的技术基础架构,使得原有的社会关系与权力结构不断固化与发展。
本文所讨论的算法指的是机器学习(Machine Learning)算法,它不同于传统意义上按照给定的逻辑推理规则将输入转变为期望输出的知识库(knowledge base)的方法。相反,算法的设计者只负责设计机器学习的过程,由机器通过接受大量数据从而被“训练”,并根据观察到的模型来推断规则。计算机科学中,对于某类任务T和性能度量P,如果一个程序在T上以P衡量的性能随着经验E而自我完善,那么就称这个计算机程序在从经验E中学习。近年来,深度学习作为机器学习的特殊类型,使得计算机系统能够从数据自动提取特征表示,被认为是通往人工智能的途径之一。机器学习算法的强大算力和自主学习能力把人类从庞杂的数据中解放出来,促进智识水平的提高。然而,从摆脱设计者控制的角度来看,机器学习算法一定程度上又体现出操作过程中的黑箱性质。
黑箱并不可怕,它是价值中立的概念,在社会分工的背景下,人们基于信任把与切身利益相关的事务交由职业专家(律师、医生等)决定,由于职业专家和受决策影响人之间存在着知识上的不对称,专家作出决策的过程也是一种黑箱状态。但问题在于,算法真的是专家吗?或者,算法的决策就是权威和准确的吗?事实上,私人企业利用算法获得更高的利润,政府机关利用算法更好地进行治理,这些做出决策的主体不再过问初始参数与输出结果之间的因果关系,但精准数字外衣下可能隐藏着许多有害的假设。由于在最感兴趣的行为方面缺乏相应的数据,他们将本应通过调查获得的数据替换成间接变量,而间接变量与行为之间的联系往往具有歧视性。例如,仅仅通过在线购买书籍的记录来判断一个求职者是否具有学习知识的能力。科技的发展本应为人类带来福祉,然而算法的负面作用已然广泛存在于生活中,包括购物平台的差别定价(大数据杀熟)、行业内的垄断共谋、违规收集个人信息及隐私侵权事件频发等等。产生这些问题的根源不在于算法的黑箱状态,而在于黑箱算法掩藏并加深了原有的社会权力不对等。
不少文献已经指出了算法的大规模应用将会产生新兴的技术力量,加剧社会权力结构的不平等。例如,周辉指出:“在权威的代表者以及资本的代理人面前,算法在对权利的保障与补充上实现的增幅远远无法达到在权力扩张上实现的增幅。这种差异会使在民众与政府、企业之间原本就存在的信息不对称以及知识不对称现象愈发严重。”张凌寒指出:“由于缺乏有效规制,算法权力在商业领域形成与消费者的不公平交易,催生了监视资本主义;在公权力领域嵌入公权力运行的各个环节,甚至成为独立的决策者,严重挑战正当程序制度和权力专属原则。”由于力量的严重不对称,普通公众根本无法对算法决策提出质疑并要求更正,只能成为福柯笔下被“规训”的对象。在国家大力支持人工智能产业发展的政策背景下,法律需要做的,是改变算法应用带来的权力与权利赋能不平等,规制算法背后的权力主体,给予个人权利以救济。
算法的运行是一个动态的过程,它需要数据的“喂养”学习规则并通过新数据的反馈而不断纠正模型。法律规制的对象应当是在现实世界的数据中运作的算法,而不是静态的、不变的模型。本文将首先结合具体场景下意思表示的结构来分析算法在法律体系中的定位,并认为目前仍应被定性为工具(客体),而背后的控制者(开发者)应当承担算法决策的法律后果。其次,本文将论证数据主体与算法控制者之间的私法权利义务关系,应当是信息信义关系,同时算法的控制者还负有公共责任。最后,本文将通过赋予数据主体个人信息权以及夯实隐私权来完善私法规制的进路。
二、规制的前提:算法的工具属性
意思形成阶段的工具
对算法的私法规制首先要解决的问题就是如何看待算法在法律关系中的定位,对于算法的法律地位定性不同,将导致权利义务构造、侵权责任承担等发生显著的不同。有学者认为,人工智能机器人已经逐步具有一定程度的自我意识和自我表达能力,可以与人类进行一定的情感交流。也有学者认为可运用拟制的法律技术,将特定情形下的人工智能认定为法律主体。更有学者基于2017年欧洲议会法律事务委员会表决通过的决议认为,应当设立新的法律主体类型“电子人”,指向那些拥有人类智能特征,具有自主性,以电子及电子化技术构建的机器设备或系统。笔者认为,在法律框架下讨论算法在内的人工智能是否具有主体属性,不能脱离现实的技术背景,仅仅因为算法的运行在表面看起来没有人工的参与就认定其产生了自主意识,进而认定其主体性是不可取的。
人工智能技术的发展方向,是开发出图灵(Alan Turing)所设想的能够模拟人脑思维、实现人类全部认知能力的强人工智能体,而目前的人工智能仍处于弱人工智能阶段,只能处理人类给定的单一任务。AI主流技术包括符号主义范式、联接主义范式、行为主义范式及贝叶斯网络、类脑计算等,可以肯定的是,这些技术路径均未令AI产生类人的自主性、意识或者说“智能”,并且在相当长的时间内可能也无法实现这一点。因此,算法主体论的讨论基础一开始就存在误区,也无法适用于对现实世界的规制。实际上,算法只是服务于其控制者(开发者)以达到特定目的的工具:在利用算法筛选简历时,算法回答的是“谁是优秀的求职者”这一问题;在利用算法判断贷款风险时,算法回答的是“谁是守信用且及时还款的借款人”这一问题。下文笔者将在特定场景下通过探讨意思表示的结构来论证算法的工具属性。
为便于讨论,本部分限定的场景为借款人在线向贷款人申请贷款,贷款人则将借款人提供的个人信息输入评分算法,由算法判断该借款人是否是一个“守信用及时还款的借款人”(表现为信用的评分),并根据结果向借款人发送要约,包括贷款的数额、期限及利息等,借款人决定是否承诺。贷款人使用的算法是机器学习算法,具备一定的自主性,如果使用的是上文提到的知识库算法则没有讨论的必要,因为其仅仅是一种计算复杂的公式。
申请贷款时借款人往往要提供很多个人信息,贷款人基于这些个人信息来判断借款人的信用,庞大的经营规模和复杂的经验数据集群决定了利用算法来完成此项任务能够节省成本,提高效率。机器学习算法的训练过程中,人工参与的场景仅限于选择训练数据的特征并将标签附加到输出数据上,由数据科学家在输出结果令人不满意时进行干预。因此,在后续应用的过程中算法将一直提取由人工选定的特征来自主得出结果,在贷款的情形下,可能包括了借款人的职业、过往的贷款还款记录、现有的贷款数额等。机器学习算法从这些特征中映射出相应的输出,即该借款人的信用等级如何,具体表现为信用评分。贷款人在得到了算法给出的信用风险评分以后,如果达到放贷的标准,即向借款人作出包含各项内容的放贷的要约。在高度自动化而无需人工介入的线上贷款场景下,似乎发放贷款的意思表示是由平台的算法自动作出的。而作为一项“行为”或与“行为”相类似的有意识的行为,意思表示首先是以一种可受意志控制的作为或不作为为存在前提的,按照这一逻辑,进而认定算法已经超越了工具属性,能够成为法律上的主体也就顺理成章了。但是,我们仔细分析意思表示的结构就会发现,事实并非如此。
在这一场景下,从输出结果到给出放贷的意思表示之间的过程并没有机器学习算法的参与,完成这一步骤的技术并不复杂,只是已经得到广泛应用的自动信息系统。投币式自动售货机就是一种简易的自动信息系统,特定人设置自动售货机的行为被视为一种要约;消费者不必了解何人为真正要约人,但只要按指示投币入机,完成承诺行为,合同便可成立,履行行为由机器自动完成。自动信息系统在电子商务合同场合中也得到广泛引用,它指的是按照事先设定的算法、程序指令、运行参数与条件,在无自然人确认或者干预的情况下,为交易双方订立或者履行合同进行信息互动的计算机系统。《电子商务法》第48条第1款明确规定:“电子商务当事人使用自动信息系统订立或者履行合同的行为对使用该系统的当事人具有法律效力。”据此,消费者在电商平台上提交订单后,收到的由经营者所使用的系统自动发出的确定订单(载明将尽快发货等),尽管没有包含经营者明确接受这一特定要约的具体的内心意思,但基于经营者的概括意思(generelle Wille)以及概括表示意识(allgemeines Erklärungsbewusstsein),订单应被认定为一项具备有效内心要素的意思表示。因为电子商务经营者事先认可采用该系统生成并发送意思表示,从风险控制的角度来看,经营者完全可以事先设定数量上的限额来避免遭受损失,认定经营者具有受到自动信息系统发出的订单的拘束的意思是完全合理的。前文提到的线上放贷场景也是如此,尽管贷款人不知道具体的借款人是谁,合同的条款具体是什么样的,但由于贷款人事先选择了自动信息系统,且有关的风险范围都是在理性贷款人的商业考量之内,因而具备一种概括的行为意思和表示意识。而机器学习算法的运行,包括从输入数据到输出数据的步骤(图例中的虚线部分),并不是意思表示构造中的要素,充其量只能作为贷款人意思形成阶段的来源。算法只是根据贷款人给定的特征,向贷款人回答了“借款人信用等级如何”这一个问题,再由自动信息系统将借款人的信用分数数值与贷款人事先设定的标准进行对应,发送具体的要约。
从上述分析可知,在由算法做出自动决策的场景中,实际上包含了两项程序,或者说两项步骤,算法的自主性体现在解答人类给出的特定任务,而自动信息系统的表示行为背后是算法控制者(开发者)的意思表示。在任何训练或未训练的算法模型中都有人通过数据收集、特征选择和目标变量的选择等方式参与其中。因此,算法应当被认定为意思形成阶段的工具。
失控算法责任的归属
有学者指出:“在算法社会中,规则的核心问题不是算法,而是使用算法的人,以及允许自己受算法控制的人。”在商业领域中,算法的应用是为了对消费者产生的大量数据进行分析,利用信息/知识的不对等最大可能地攫取消费者剩余;在公权力领域,算法被用来对公民进行全方位、深层次的治理。算法的编程、输入的训练数据、数据的特征、输出样本的标签等均是背后的控制者(开发者)意志领域范围内的事项。风险社会下需要法律缔造一种行为机制模式,以风险行为为核心进行风险的分配,使风险行为与责任承担之间产生一种直接联系,使风险的承担达到一种平衡状态。在算法的应用过程中,算法的失控会给原本就处于弱势的一方更大的伤害,通过分析各类算法失控的情形可以得出:由算法背后的控制者来承担风险责任是正当的。
首先,算法歧视的类型可分为三种:第一种是过程中的偏差,第二种是输入样本的偏差,第三种是代表性数据中捕获的社会偏差。过程中的偏差主要体现为特征选择上的歧视,是传统歧视模式在网络社会的一种反映,是固有的刻板印象在数据挖掘中的再现。在这种类型下,因为机器学习的数据特征是由控制者(开发者)选择的,因此他可以将自身对于某个群体的偏见转化到算法的代码中去,对不同的群体采取不同的标准。这样的歧视性做法无疑要受到法律的制裁,算法的控制者(开发者)不能因为使用了算法的自动化决策而获得任何的优势对待。输入样本的偏差表现为用于训练算法的样本数据是不具有代表性或者根本就是错误的。既然训练数据完全是由算法的控制者(开发者)选择的,那么赋予其合理注意样本的代表性和正确性的义务并不过分,而因样本数据导致的算法歧视亦应由其负责。
代表性数据中捕获的社会偏差,其与输入样本的偏差,区别在于,这里的数据已经很好地代表了数据主体所在的人群。但未经仔细考虑就根据过去有偏见的数据训练的算法系统,从本质上有可能重现甚至加剧过去决策中出现的歧视。在这种歧视类型下,算法控制者并没有进行歧视的主观意图,但算法在分析以往数据集的过程中,固化和放大了社会实践中原本存在的歧视性结果。例如,亚马逊的招聘算法通过观察十年内公司根据简历招聘的模式来进行训练,以审查申请人。由于这一数据集中被招聘的都是男性,该算法系统更偏向于男性申请人,并把带有“女性”字样的简历置于不利地位。即使亚马逊事后对这一算法程序进行了编辑,使其不受这一特定术语的影响,但并不能保证这些机器不会设计出其他可能被证明具有歧视性的候选人分类方法。算法控制者的无过错主观状态并不影响其责任的承担,从“行为—责任”的框架来看,是控制者设计、启用了这一算法来降低成本、提高效率,将风险分配给启用算法的人,符合正义观念。对于该算法失控带来的负外部效应,法律应当制定规则使其成本内部化,防止其为了自身利益侵害整个社会的总体价值。而在法律明确要求其内部化成本的时候,算法控制者也会采取措施减轻算法可能带来的歧视性后果,例如作出决策时不完全依赖算法而仅仅作为一个参考,修改数据样本使其符合理想化的情景等。
在其他算法失控的场景下,上述要求算法控制者(开发者)负责的逻辑仍然可以得到应用。例如,在大数据杀熟情形下,平台企业收集大量客户在线浏览、收藏、下单及评价等记录,通过算法为每个消费者建立“用户画像”,预测其所能承受的最高价格,进行差别定价以获取更多的消费者剩余。平台企业对算法的应用加剧了与消费者之间知识/信息的不对等,“看人下菜碟”的行为已然违反了《消费者权益保护法》中规定的消费者知情权和公平交易权,因此,从法理上说,平台企业应当为其使用算法的行为负责。再如,微软开发的Tay聊天机器人,仅仅试用24小时就采取了同情纳粹、歧视女性的谈话模式。若Tay在线上聊天的过程中实施了侵犯名誉权、隐私权等对具体人格权利的侵权行为,那么侵权责任也应由开发、使用这一聊天机器人的微软公司负责。因为尽管微软并没有编程这一输出结果,但它应该知道,把一个机器人暴露在一个因对骚扰和仇恨言论缺乏节制而臭名昭著的平台是危险的。微软完全可以通过事先汇报、人工审核等措施来防止侵害后果的发生。
算法作为一项科学技术能够通过强大的算力解决人类所力所不能及的事情,但算法控制者(开发者)在设计、使用算法时不能仅追求扩张自身利益而罔顾社会利益,科学技术承载着人们对美好生活的期待,技术的控制者应该密切关注其可能带来的社会影响。《理想国》中著名的牧羊人的金戒指隐喻已经告诉我们,正义的人和不正义的人拥有了强大的力量(隐身术)后都会做出不义之事,没有一个人能坚定不移,继续做正义的事。事实上,兰登·温纳的信息技术政治理论指出,信息技术本身无法带来社会平等和促进民主,反而会因加强对社会的监控而对人民的隐私造成威胁、导致权力失衡状态的出现以及社会政治关系的重构等问题。技术中立从来都不能成为掌握技术力量的主体的抗辩事由,都要受到法律对它的规制。在快播案的二审裁定书中,法院认为其审判的不应是技术,而应是行为的辩护意见。快播公司作为一家以P2P技术为依托的网络视频服务企业,不仅应当承担法定的网络安全管理义务,而且应当自觉承担起与其技术特点所造成的法益侵害风险程度相当的更高的注意义务。在侵权法上存在着将责任转移给最有能力对此事采取行动的个人或实体的原理。法律应当在技术发展与个体保护之间做好平衡,避免技术的膨胀反噬个人的权利空间。对于算法背后的控制者采取更加严格的责任,将促使他们采取合理的预防措施,避免损害的发生。明确了算法的工具属性和人的主体性,因而须由算法控制者(开发者)承担责任后,如何落实对算法的私法规制进路呢?本文认为应当明确算法控制者的义务以及数据主体的权利,以消解算法权力带来的力量不对等。下文将围绕这两点展开。
三、规制的框架:信义义务的赋予
算法时代的数据权利
算法应用的背后是原有社会关系的固化。在公权力领域,为了将原有的政治权力转化为能适应互联网时代碎片化、场景化的趋势,政府通过收集公众的数据,利用算法建立起社会信用体系,以此来实现规范行为、惩罚违规的作用。在商业领域,平台企业通过形同虚设的“知情—同意”和冗长的用户协议肆无忌惮地抓取用户的在线记录,建立个性画像以攫取更多的消费者剩余。算法赋予平台企业以更广的权力,而对于普通公众的权利赋能却远远不够,这更进一步加剧了原先存在的信息/知识上的不对等。因此,算法规制的核心表现在两个方面:算法权力掌控者义务的赋予和数据主体权利的赋予。
在算法的动态运行过程中,数据的重要性不言而喻。数据使新的、有趣的、日益强大的算法计算形式成为可能,这些计算形式产生了关于人类行为的新见解,增加了预测、风险管理和控制的机会。同样重要的是,关于人的数据是管理和控制大量人口、决定其机会和命运的核心方法。实践中,掌控算法的主体往往也实施了一项或多项个人信息的处理行为,因而在算法适用场景下,算法控制者与个人信息处理者的身份发生了重合。算法控制者与算法相对的权利义务关系,可转化为个人信息处理者与数据主体之间的权利义务关系,而最终的落脚点即为数据。阐述这一问题之前,须厘清数据与个人信息的关系。数据与个人信息同属信息这一上位概念,而信息共有三种形态,分别为语义、句法以及结构。个人信息属于语义信息,强调的是信息的内容层面,与获悉该信息的认知主体不可分离。数据则属于句法信息,是编码层面,以语言、文字、线条等符号以及符号之间的关联关系而呈现的客观形态的信息。而结构信息则是以一定物理载体形态体现的,例如书籍、硬盘等自身的信息。数据是个人信息的载体,在网络空间中表现为“0”“1”的二进制符号以及比特流。以商业领域为例,消费者在线浏览、收藏、点赞、评论等活动产生的个人痕迹信息被商业企业通过cookie等技术收集后,转化为比特流形式的数据,但这种简单的转化不需要企业付出多大的成本。数据收集到一定数量以后,企业还需将其编排、加工处理成能够应用于算法的(训练)数据集,这一过程不同于之前单纯的数字化记录,企业投入了劳动力,数据已经不再是原先个人信息(数据)的集合,而被添附上了新的价值。这样,算法才能通过分析大量类似数据的集合,实现对消费者的分类、预测喜好等。
因此,本文认为,不能简单地认为句法层面的数据就应当归属于数据控制者(个人信息处理者),而要考虑其在数据加工中是否付出了足够的劳动力。经过编排和加工后的数据集,企业应当享有一定的“排他使用权”,至于具体是什么权利,不是本文关注的重点。而以文字、图片、比特等形式记录的个人信息数据,则是一种兼具“人身”与“财产”属性的新型社会资源,个人对其享有一种具体人格权。尽管规范层面的“个人信息权”仍未确立,但《中华人民共和国民法典》(以下简称《民法典》)将“个人信息保护”置于人格权编予以规制,且随着《中华人民共和国个人信息保护法(草案二次审议稿)》(以下简称《个人信息保护法(二审稿)》)的公布,规范层面上即将确立个人在个人信息处理活动中享有的知情权、决定权、查阅权、复制权、更正权、删除权、解释说明权等保护性权利。在数据产业飞速发展的当下,个人借此获得了掌握与自身有关的信息(数据)的能力,保障人格尊严、自由以及内含的经济利益不受肆意的侵犯。因此,数据主体是个人信息(数据)的权利主体,企业只有在符合处理个人信息的合法性基础时,方能将个人信息用于算法等自动化决策。而企业合法利用形成的信息数据集群,将受到竞争法、知识产权法等法律的保护,任何其他实体不得进行爬取、破坏。实践中亦有判决支持上述的权利义务安排,在“安徽美景信息科技有限公司、淘宝(中国)软件有限公司商业贿赂不正当竞争纠纷”一案中,法院认为:“原始网络数据只是对网络用户信息进行了数字化记录的转换,网络运营者虽然在此转换过程中付出了一定劳动,但原始网络数据的内容仍未脱离原网络用户信息范围,故网络运营者对于原始网络数据不能享有独立的权利,只能依其与用户的约定享有使用权”,而“网络大数据产品提供的数据内容虽然同样源于网络用户信息,但经过网络运营者大量的智力劳动成果投入,经过深度开发与系统整合,最终呈现给消费者的数据内容,已不同于网络用户信息、原始网络数据,是与网络用户信息、原始网络数据无直接对应关系的衍生数据。网络运营者对于其开发的大数据产品,应当享有自己独立的财产性权益”。
算法控制者的信义义务
鉴于个人信息具有的财产属性,有学者认为消费者与经营者之间存在着互负具有目的关联性的给付义务,从而形成双务合同,经营者为此类双务有偿合同披上单务无偿的外衣,实际情况却是消费者以同意经营者利用其个人信息作为接受服务的对价,促使个人信息发生对价性转化。这一观点深刻地揭露了平台等算法控制者肆意攫取消费者个人信息,利用算法进行分类、诱导消费的真相,但通过合同法路径进行规制存在以下几个问题:首先,以双务合同来定性商业领域下消费者与平台经营者之间的关系不利于保护消费者,对于消解算法的应用导致的权力与权利的不对称并没有帮助。合同法追求合同自由,经营者负担的是对待给付义务,而实际上消费者作出的是一种“被扭曲的决策”(skewed decision-making),受到人的有限理性、外部的可得性启发(认为熟悉的风险比不熟悉的风险更危险)以及企业、政客和他人的影响。因此,消费者与平台经营者签订的格式条款受到双方悬殊力量差的制约,往往在权利义务设定方面偏向于平台自身。其次,正是由于把消费者与经营者之间的关系认定为平等的基于合意的合同关系,才会有观点认为尽管人们在调查中对隐私表示深切关注,反对日益增长的监控、数据收集、在线跟踪和行为广告,但当涉及实际选择时,人们对于自己的隐私并没有那么在意,所以对收集和使用个人信息的监管不必过于严格。这样的乐观主义会导致算法失控的加剧,造成监管套利、信息寻租等问题的出现。最后,合同关系下的义务并不适用于如今大规模使用算法的政府,在政府与公众之间并没有基于合意产生的合同。
本文认为,算法控制者,包括商业企业和政府,是个人的信息受托人。大数据时代,个人信息(数据)具有财产利益,在同意处理个人信息的情形下,算法控制者将个人信息用于自动化决策,从而为数据主体提供服务(包括政府公共管理的服务),算法控制者享有能够对受益人利益状态产生影响的信托权力(fiduciary power),这被认为是信托关系的本质形式属性。因此,数据主体与算法控制者的关系完全可以被解释为信托关系:权利明确(数据主体享有个人信息的控制权)、基于同意、(受托人具有)信托权力。算法控制者作为信息受托人,应当对受益人承担信托法上的受信义务。
基于控制算法背后的人的目的,巴尔金(Jack Balkin)对应阿西莫夫(Isaac Asimov)著名的机器人三大定律,提出了算法社会中规制的三条定律,其中第一条是:“对于客户、顾客和最终端用户来说,算法使用者是信息受托人。”就我国而言,《公司法》第一百四十七条规定了董事、监事、高级管理人员对公司的受信义务(忠实义务和勤勉义务),实际上是对公司股东负担的受信义务。公司股东由于信赖这些管理人员而将公司交由他们管理,法律也要求他们承担相应的义务。尽管我国法上对于律师、医生、投资顾问服务机构、基金管理人等所承担义务的性质语焉不详,但从法理上来说应当也定性为信托关系。使一个人成为受托人的原因是人们依赖于其所提供的服务,但受托人和客户之间在知识和能力上存在着明显的不对称,客户不能轻易地监督受托人为他们做什么。
之所以将数据主体与算法控制者之间的权利义务关系解释为信托关系而不是合同关系,理由在于:第一,信托关系的设计是为了解决受益人与作为专家的受托人相比,囿于信息、技术、时间等的不足,处于谈判力量不对等的地位,而合同若是自愿达成的,即根据合同条款来判断双方的权利义务,只不过法律会基于消费者保护等社会利益作出相应的限制性安排,例如格式条款的无效等。相较而言,前者更符合算法控制者与数据主体之间的现实关系。第二,在合同关系里,交易双方遵照约定履行彼此的权利义务(事前模式),而在信托关系里,由于受托人履行职责的期限长,内容复杂,受托人对自身如何履行职责及是否违反义务的判断是以职责履行的后果对受益人利益的影响为依据(事后模式)。实践中平台企业拟定的格式合同往往要求用户同意其个人信息被全面收集、使用或就某些事项适用自动化决策,但并不能就此认定平台其后的行为是正当的,仍要考察其是否履行了一个理性的受托人应尽的义务,包括不超过必要限度收集个人信息,确保数据主体对于决策的知情权、申诉权等。采用信托关系的事后模式也能够确保算法在合理限度内获得数据“燃料”,在不损害个人主体权利的同时促进数据产业的发展。第三,在基于信赖而形成的信托关系中,受托人天然地要比在合同法律关系中承担更多的义务。考虑到规制算法控制者的必要,更应选择将其解释为信托关系。
信义义务的具体内涵
首先,信义义务包含了勤勉义务,我国《信托法》第二十五条第二款规定:“受托人管理信托财产,必须恪尽职守,履行诚实、信用、谨慎、有效管理的义务。”勤勉义务没有一个统一明确的标准,应当根据具体场景予以综合认定。勤勉义务的主体是将个人信息应用于算法决策的组织、个人,即算法控制者。在算法应用场景下判断自动决策是否符合勤勉义务的要求,要从两个阶段分别来看。在算法的设计、使用阶段,控制者(开发者)应当恪尽职守,遵守相应的行业道德标准,不违反法律,不存在有意借助算法进行歧视、逃避责任的行为;而在算法自动运行的情形下,也要判断是否是“合理”“勤勉”的,这里的“合理”“勤勉”应当从客观理性人的角度来看待,对于第二阶段产生的义务违反行为也应归责于算法控制者。在英美法上,判断个案中的侵权人是否违反合理谨慎的注意义务,有两个标准:规范标准(a normative standard)和积极标准(a positive standard)。规范标准反映了社会对于算法技术造成影响的不同考虑,例如对加快创新的价值追求可能会降低决策合理所需的预防水平;而积极标准考虑的是比较同一标准的算法的做法来确定是否合理。若要采用积极标准,由于各平台企业将自己的算法作为商业秘密予以保护,法院可能缺少比较数据进行实质判断,未来可通过具备资信的第三方数据仲裁者介入算法的决策过程进行判断。而规范标准下决策行为是否勤勉合理的判断,涉及利益衡量的问题,不同的法律制度下存在不同的制度利益,而制度利益又需要与具体情境相联系。因此,算法的决策仍应当符合当事人的具体利益、群体利益和制度利益。例如,智能投顾的使用仍是为了使投资者的利益最大化这一目的,因此,金融机构须监督算法模型的运作,在出现错误时及时予以纠正,对此,2018年中国人民银行、银保监会、证监会、外汇局联合发布的《关于规范金融机构资产管理业务的指导意见》明确强调:“金融机构应当根据不同产品投资策略研发对应的人工智能算法或者程序化交易,避免算法同质化加剧投资行为的顺周期性,并针对由此可能引发的市场波动风险制定应对预案。因算法同质化、编程设计错误、对数据利用深度不够等人工智能算法模型缺陷或者系统异常,导致羊群效应,影响金融市场稳定运行的,金融机构应当及时采取人工干预措施,强制调整或者终止人工智能业务。”
其次,信义义务的核心是忠实义务。法律要求受托人以可信赖的方式,真诚地行事,避免与客户或患者产生利益冲突。有学者将忠实义务总结为两个方面:一方面要求信托人为委托人的唯一利益行事,另一方面要求禁止信托人与委托人的利益相冲突,包括为他人的利益。我国《信托法》第二十五条第一款被认为是忠实义务的一般条款,“为受益人的最大利益处理信托事务”可以赋予其宽广的内涵。就第一方面“不得牟利”而言,应该严格审查算法控制者处理个人信息的合法性基础,不得擅自处理用户的个人信息以谋取利益,例如商业银行为了向个人提供短信通知服务而收集我们的手机号码,属于《个人信息保护法(二审稿)》第十三条第(二)款规定的“订立或履行个人作为一方当事人的合同所必需”,但银行若是收集我们的个人身份信息、通讯录信息用于营销的,则应被认为违反了忠实义务的“不得牟利”要求。就第二方面“禁止利益冲突”而言,由于政府是由人民选举产生的,因此要求其将人民的利益放在首位,自不待言;然而要求私人企业承担将数据主体利益放在首位的忠实义务可能存在疑虑。公司与股东之间是投资关系,公司法上要求董事、监事和高级管理人员向公司股东承担勤勉义务和忠实义务。数据蕴藏着巨大的经济价值,而重视数据主体的个人权利保护无疑会阻碍数据的获取和商业开发,那些处理用户数据进行定向广告推送的行为必然会引起争议。有美国学者即认为,就股东和用户的利益分歧而言,这些公司的管理人员和董事可能会被置于一种站不住脚的境地,他们必须违反特拉华州法律规定的(对股东的)受托责任,以履行巴尔金提议的新定律规定的(对最终用户的)受托责任,至少要阻止某种“严厉的政府干预”而明确优先考虑后一套职责。实际上,用户和股东的利益在本质上是一致的,人们普遍都关注自己的隐私和个人信息保护,资本市场也注重企业的隐私政策,隐私保护完善势必会吸引更多的用户,而企业被爆出隐私问题后往往会引起股票价格的下跌。企业完全可以在满足合法性基础上对个人信息进行综合利用,在用户同意的目的范围内对数据进行商业开发,那些只关注短期利益而不保护消费者个人信息的企业势必会被抛弃。
最后,信义义务还包括信息披露义务。受托人有义务向委托人披露其在受托交易中的利益冲突情况,而无论委托人是否提出相关要求。算法控制者收集、分析用户的个人信息数据,用于对用户进行分类,做出影响其法律行为行使自由、合同权利等重大事项的算法决策。通过算法决策系统的应用,算法控制者能够显著减少成本,为防止算法控制者滥用算法决策以实现利润的最大化,有必要要求算法控制者承担起传统信义义务中的信息披露义务,以保障受算法决策影响之人(数据主体)维护其正当利益。《个人信息保护法(二审稿)》第七条规定了“处理个人信息应当遵循公开、透明的原则,公开个人信息处理规则,明示处理的目的、方式和范围”;第十八条规定了处理个人信息事前告知义务的有关事项;第二十五条规定:“利用个人信息进行自动化决策,应当保证决策的透明度和处理结果的公平合理。”据此,在将个人信息应用于算法决策时,算法控制者的信息披露义务将具备实定法的基础。关于信息披露义务的范围,可参照欧盟《通用数据保护条例》(以下简称GDPR)的规定,其第13条第2款(f)项、第14条第2款(g)项规定在必要的情况下,控制者应向数据主体披露自动化决策之信息,包括决策系统适用的逻辑以及此类自动化处理对于相对人的意义及可能后果等“有意义的信息”。工作组的指南第29条同时指出:“有意义的信息并不意味着提供一个关于算法或机器学习如何工作的复杂的数学性解释,控制者应考虑使用清晰和全面的方法向数据主体传递信息。例如:已经或将要用于分析或决策过程的数据的类别;为什么这些类别是相关的;如何建立自动配对决策过程中使用的配置文件,包括分析中使用的统计数据;为什么这个配置文件与自动决策过程相关;以及如何将其用于有关数据主体的决策。”算法控制者的信息披露义务是数据主体行使对仅通过自动化决策方式作出决定的拒绝权、撤回同意的权利、更正权以及删除权的基础。
对算法控制者课以信息披露义务,即主张算法透明度原则可能存在如下的困难:首先,算法被当作商业秘密加以保护,追求透明度可能会损害商业企业的利益和创新积极性;其次,歧视性的算法决策很难被硬编码,并且可能是机器学习过程中出现的特性,无法从代码的评审中识别出来;最后,即使有了完全透明的代码,算法的内部工作对人类来说可能仍然是难以理解的,这使得事前的审查变得困难。但是我们并不能仅仅因为存在这些困难就否认信息披露义务的功能,它对于预防利益冲突行为、促使信息受托人内部化算法失控的外溢成本有着重要的作用。披露决策中使用的配置文件和程序往往有可能通过促进问责制,提高决策准确性,阻止或暴露偏见、任意性和不公平性,允许决策主体对错误决策的事实依据或其他依据提出质疑,采取有益于社会的战略行为来赋予显著的社会利益。根据欧盟法的规定,算法控制者无须披露复杂的代码,就维护数据主体个人权利的角度出发,仅需以“简洁明了、清晰可视、晓畅易读”的方式提供有关算法决策的信息。因此,算法作为商业秘密并不会因为向某个个人披露逻辑和数据分类等信息而受到威胁。不过,需要注意的是,应防止算法控制者从事诱导性和欺诈性的信息披露,将算法透明从中立的信息公开成为现有权力的干扰性披露,成为算法控制者使其违法、违规行为正当化的工具。
算法控制者的公共责任
算法失控的危害具有鲜明的公共性质,对那些既不是算法系统的终端用户,也没有与算法控制者缔约合同关系的人来说,算法仍可能在法律行为的行使自由、个人的法律地位和合同权利等重大事项上对其产生不利影响。政府、企业通过收集数据为每个个体建立数字身份,并根据相应的算法为其生成决策或评分,这些决策和评分又进一步被纳入更多自动化决策系统的考量范围,重新塑造数字身份。在这个循环往复的过程中,个体的弱点会愈发凸显,歧视也会更加固化。随着个体数字身份因算法决策的“过度消费”而每况愈下,整个公共数据体系都面临严重污染的现状。
信托义务无法对那些没有进入信义关系或合同关系的人提供帮助,例如被算法系统过滤的面试者、拒绝的借款人等。对此,巴尔金通过让算法使用者承担公共责任的方式来解决。他设计的第二条、第三条定律分别为:对于那些不是客户、顾客和最终端用户的人来说,算法使用者负有公共责任;算法使用者公共职责的中心是避免将其操作的成本(危害)外部化。对算法决策危害的最佳类比不是有意的歧视,而是社会上不合理的污染。算法的黑箱固化了原有的权力结构,产生了新形式的不公,使得伤害变得隐蔽而广泛,社会公众因为算法失控问题而付出了高昂的成本,算法决策造成的负外部性对于社会整体利益造成了不利影响。典型的算法使用者成本外部化的例子是,算法出现了特征选择上的偏差、输入样本的偏差或体现了社会上的偏差,对于那些信息未被收集但受到歧视的人群,乃至整个社会来说,都蒙受了不公平对待。
将算法活动可能对公众造成的妨害类比为环境污染等公共妨害(Public Nuisance)这一行为能够起到促使企业将成本内部化的作用。美国法上的公共妨害指的是对一般大众公共权利的不合理干扰。当外部化成本远远超过外部化收益或远远超过背景外部成本时,公共妨害法通过强制责任促使行为人选择社会最优活动水平。由于公共妨害侵扰的是公众的共同权益或社会的普遍利益,因此,由公共官员或检察官代表政府提起刑事诉讼来消除公共妨害;在私主体能够证明其已经因公共妨害遭受了“特殊的”(Special)或“特定的”(Particular)损害时,亦可提起侵权之诉。《个人信息保护法(二审稿)》规定了个人信息处理者的多项义务,以确保其遵守自身的公共责任,包括指定个人信息保护负责人、定期履行审计义务等。更重要的是,该草案第六十九条规定了个人信息公益诉讼制度,针对受损害群体较广的,可由人民检察院、履行个人信息保护职责的部门和国家网信部门确定的组织向法院提起诉讼。算法失控造成的妨害具有全面而分散的特点,单个数据主体势单力薄,难以制衡算法控制者,公益诉讼的模式可有效确保受算法决策损害之人维护其利益,起到监督算法决策人的作用。实践中,人民检察院针对侵犯公民个人信息罪提起公益诉讼较为普遍,一旦《个人信息保护法(二审稿)》落地,将扩大个人信息公益诉讼的适用范围,更好地保护公众的合法权益。
四、规制的工具:私法权利的证立
智能互联网时代的法律规制,需要放弃传统习惯上的强行干预方式,而更多地采取技术主义路线和策略,把法律规制转换成与之对应的法律技术化规制。这意味着,仅仅在法律上明确算法控制者(开发者)负有某些义务而促使其算法失控的外溢成本是不够的,法律对于算法的规制还需要打开算法代码的黑箱,从技术角度赋予数据主体新型、多层次的权利,平衡算法决策中蕴含的权利和权力不对等局面。智能终端、物联网、大数据等技术的发展使得线上线下的数据都能够被记录、转化、集中,算法为每一个数据主体建立个性画像,在算法面前每一个个体都是数据的集合。但我们并不拥有这些数据,也无法控制这些数据,数据属于为我们提供各种服务的“大数据掌控者”。对算法的规制体现为对数据主体博弈算法权利的认可,博弈算法是私人自治与人格尊严的体现,能够促进创新发展和分配正义。因此,在私法规制算法的进路上,赋予并充实数据主体的权利至关重要,主要包括个人信息(数据)权和隐私权。其中个人信息(数据)权是数据主体自主决定承载自己信息的数据如何处理、被谁处理的主动性权利,隐私权则是数据主体享有的免受他人干扰、利用的防御性权利。在讨论算法时代中的这两项权利之前,须对个人信息与信息隐私进行区分。
个人信息与信息隐私的区分
《民法典》第一百一十和第一百一十一条分别规定了自然人的隐私权和个人信息利益。有学者在承认隐私权与个人信息采取区分保护的“二元论”模式下,认为个人隐私与个人信息之间存在着交叉。亦有学者认为个人信息与隐私之间并不是简单的交叉关系,两者实为彼此独立的两个法律概念。本文赞同前一种观点。从个人信息与隐私的定义与分类来看:首先,个人信息按照《民法典》第一千零三十四条第二款的规定,指的是“能够单独或者与其他信息结合识别特定自然人的各种信息”,采取了“识别”的路径,而《个人信息保护法(二审稿)》第四条与欧盟GDPR的规定类似,指的是“与以识别或可识别的自然人有关的各种信息”,即采取了“识别”和“关联”的路径。而隐私指仅与特定人的利益或者人身发生联系且权利人不愿为他人所知晓的私人生活、私人信息、私人空间及个人生活安宁。从定义中可知,网络空间中的个人信息包含了隐私权所保护的信息性隐私,隐私权与个人信息权可能存在适用上的重叠。其次,《中华人民共和国民法典草案》(2019年12月16日稿)第一千零三十四条第三款规定“个人信息中的私密信息,同时适用隐私权保护的有关规定”,而《民法典草案》(2020年5月22日稿)以及最终出台的《民法典》第一千零三十四条第三款增加了“没有规定的,适用有关个人信息保护的规定”之表述,可见个人私密信息也不等同于个人隐私。
笔者认为,在算法时代下,基于维护数据主体的人格利益和财产利益,应对个人信息予以赋权,权利的客体是数字化的包含着个人信息的电子数据。因此,隐私权与个人信息权属于不同的人格权,虽然在适用上可能存在重叠,但两者的制度价值不同。普罗瑟对于隐私侵权行为的分类,包括公开披露令他人尴尬的私事,即公开披露的私事要达到使一个理性的普通人感到受冒犯并反感的程度。概言之,隐私权保护的是个人不被打扰的权利,是对信息(数据)自由流动的限制。而个人信息因蕴藏着巨大的商业价值,其制度价值体现为在保护个人信息的同时促进非个人信息或经过匿名化处理的个人信息的自由流动。隐私权更多的是消极防御性的权能,而个人信息权则兼具积极权能与消极权能。
算法时代的隐私保障
数据是算法的燃料,算法的高效运转离不开数据的喂养。算法控制者为确保算法决策的精确,往往捕捉公众的地理位置、行动轨迹、在线浏览痕迹、收藏喜好等信息数据,生成数字化身份,并作出重大决策。隐私的本质是不愿为他人所知晓,算法所使用的个人信息数据极有可能包含着用户的信息性隐私,一旦被收集、处理、泄露、公开便会侵扰私人生活安宁,构成隐私权的侵犯。隐私权作为被动的防御性权利,要求算法控制者采取措施保护用户的隐私,不得利用隐私信息进行牟利。算法妨害隐蔽而普遍,若没有有效的制度规制算法控制者的行为,将导致数据主体(算法决策相对人)愈发不信任算法决策,最终选择“用脚投票”,在影响重大的事务上反对自动化决策系统的应用,最终对算法科技和数字产业的进一步发展造成不利影响。因此,法律技术化规制应当确保算法所使用的数据之上不存在特定主体的隐私信息。
对于信息隐私权而言,我国《民法典》第一千零三十三条第(五)项规定了:“除法律另有规定或者权利人明确同意外,任何组织或者个人不得实施下列行为:处理他人的私密信息。”而根据第一千零三十五条第二款,处理包括“收集、存储、使用、加工、传输、提供、公开等”。因此,算法控制者不得仅通过合同安排的形式对数据主体的私密信息做出处理,而必须符合“法律明文规定”或“权利人明确同意”的要件。在一些专门的行业和领域,也提出了保护隐私权的规定,例如《中华人民共和国人类遗传资源管理条例》第十二条第一款规定:“采集我国人类遗传资源,应当事先告知人类遗传资源提供者采集目的、采集用途、对健康可能产生的影响、个人隐私保护措施及其享有的自愿参与和随时无条件退出的权利,征得人类遗传资源提供者书面同意。”然而,纵观我国目前各个领域的相关规定,均是要求保护隐私的宣示性条款,欠缺根据专业领域的特殊性进行细化的规定。对此,可借鉴其他国家的一些做法,针对那些隐私极易被侵犯的领域,通过立法逐一加以具体规定,如美国各级政府颁布的《正当信用报告法》《家庭教育权利与隐私法》《电子通信隐私权法》《儿童网上隐私权保护法》等,并以行业自治自律为中心推进对于公众的信息性隐私保护。
隐私权的主体依附性决定了其主要是消极的防御请求权,适用《民法典·侵权责任编》的相关规定。考察一般侵权行为的构成要件,应遵循从客观要件到主观要件的过程,首先考察客观要件:(1)是否存在加害行为;(2)受害人的何种民事权益遭受侵害;(3)加害行为与民事权益被侵害之间有无因果关系,再考察主观要件,即(4)过错的有无。在算法时代,人的隐私极其脆弱和碎片化,个案判断中的第(1)(2)项取决于特定的场景,在这一场景下构成侵犯隐私权的加害行为可能在另一场景下是不构成侵权的。采用主观判断标准还是客观理性人的标准便成为了一个问题。这一点,由Helen Nissenbaum提出的情境脉络完整性理论(Contextual Integrity Theory)或许能够作出解答。这一语境因素规范主张由三个要素构成信息流——参与者(发送方、主体、接收方)、信息类型和传输原则。不同的情境脉络下具有不同的资讯流动规范,不同的资讯流动规范又规制着信息的使用方式与适当性标准。如果能够证明某一信息流动的模式并没有违反客观理性人对于该场景下资讯流动规范的期望,那么这一模式就没有侵犯隐私。具体判断时,参与者、信息类型以及传输原则这三个要素都必须综合考量。例如患者将自己的医疗信息告诉医生,医生不能违反该情形下客观理性人对其妥善保管义务的合理期待,而将信息数据贩卖给第三方,但该医生会同其他富有经验的医生进行探讨,则信息的流动符合该情境脉络下的适当性标准。情境脉络完整性理论的重要意义,在于揭示了“放弃”隐私和“放弃”个人信息之间的巨大差异。在那些数据主体点击同意自动交出信息的场景中,他们并没有把自己的隐私利益也同时拱手让出去。因此,那些收集、利用个人信息进行商业活动的算法控制者仍然承担着保护消费者隐私的义务。基于消费者的单独同意而将其个人数据用于自动化决策,为他们提供个性化服务的场景下,企业的信息处理行为是正当的,但当信息用于单独同意以外的目的时,企业的行为就存在侵犯公民隐私的可能。认定了算法控制者(开发者)的加害行为后,对于(3)因果关系的考察实际上也不成为问题,往往行为与后果之间存在较强的联系性,而应由在技术、知识上占优势的算法控制者举证证明因果关系的不存在。对于(4)过错,由于个人相较于算法控制者(个人信息处理者)处于绝对的弱势,依据一般侵权适用过错原则将导致个人承担过重的举证责任。《个人信息保护法(二审稿)》第六十八条明确了个人信息侵权行为适用过错推定原则,①隐私权侵害案件亦可参照适用过错推定责任。算法控制者为免除责任,可以举证证明已获得数据主体或其监护人的同意,或处理的信息已合法公开且数据主体并未明确拒绝,或是为了公共利益或该数据主体的合法权益合理实施的。
从法经济学的视角分析,即使算法控制者主观上并不存在操纵、歧视的故意,但因控制者采用了智能算法而节省了大量成本,因而令其承担严苛的过错推定责任,促使其谨慎使用自动化的决策系统是完全合理的。
为了平衡科技发展与主体权利保护之间的矛盾,确保算法控制者在不损害个人隐私的前提下充分利用信息数据,法律允许经过脱敏或匿名化处理的信息自由流动。《中华人民共和国网络安全法》(以下简称《网络安全法》)第四十二条规定:“未经被收集者同意,不得向他人提供个人信息。但是,经过处理无法识别特定个人且不能复原的除外。”据此,只要算法控制者将含有用户隐私的信息经过脱敏处理,即可无需征得用户单独同意而用于自动化决策或向第三方转让。然而,这一逻辑面临着技术手段的挑战。机器学习算法能够仅仅依靠出生日期、性别、居住地、子女数量这四个人口统计学属性,就能从公开匿名信息数据库中查询到特定个人。因此,匿名化并不是隐私保护的万能钥匙。应该综合考虑特定领域和场景,制定符合行业技术标准的细化隐私保护规则,结合不同的算法控制者的技术水平、盈利模式课以不同程度的注意义务,确保数据主体的隐私权不受侵犯。《个人信息保护法(二审稿)》第五十五条借鉴了GDPR第三十五条的数据保护影响评估机制,明确规定“利用个人信息进行自动化决策”的,应当进行事前的风险评估,就隐私保障方面而言,其评估的内容应当包括对个人隐私的影响及风险程度,所采取的安全措施是否能够切实有效地保障个人的隐私权益。在规范层面上要求企业履行事前风险评估义务以及定期的审计义务,有助于加强隐私风险责任管理意识,能够有效弥补个人权利路径的局限性。
算法应用中的个人信息权
算法时代的数据正义观要求数据的公平占有与合理使用。随着物联网、机器学习等技术的发展,信息已然具有对价属性,平台企业等算法控制者(开发者)并非像看上去那样无偿地提供服务,实际上平台通过收集用户个人信息,为他们建立数字画像并判断喜好,通过收取第三方的广告推介费或诱导消费者消费来谋取利益,智能算法的存在能够让算法控制者精确定位到个人并进行个性化营销。同时应当注意到,信息数据具有非排他性和非竞争性,数据的自由流动和共享是挖掘数据资源、促进算法发展的基础,因而算法应用中的个人信息赋权须实现个人信息保护和利用的平衡,在保护个人主体权利的基础上实现个人信息的合理利用。
《个人信息保护法(二审稿)》尽管并未确定“个人信息权”,但作为个人信息保护领域的基本法,其已经构建了个人在信息处理过程中享有的框架性权利。首先,如前所述,该《个人信息保护法(二审稿)》不同于《网络安全法》和《民法典》的识别路径,采用的是识别和关联路径,在一定程度上拓宽了个人信息的范围。其次,《个人信息保护法(二审稿)》对个人信息进行了细分,第二十九条提出了敏感信息的概念,指的是“一旦泄露或者非法使用,可能导致个人受到歧视或者人身、财产安全受到严重危害的个人信息”。敏感信息不同于《民法典》中的私密信息,类似概念仅在《信息安全技术个人信息安全规范》出现过,后者作为个人信息安全规范标准,其处理原则不具有强制效力,而《个人信息保护法(二审稿)》则明确规定:只有在符合特定目的和充分的必要性的情形下,方可处理敏感个人信息,并且应当取得个人的单独同意或书面同意。这意味着算法控制者对自己所持有的数据进行分级、分类并适用不同的保障措施愈发重要。最后,在个人信息权利方面,《个人信息保护法(二审稿)》延续了《民法典》的查阅权、复制权、更正权、删除权的规定并进行了细化,还设立了知情权、决定权、解释说明权等权利,更加接近GDPR等国际主流数据保护法的权利配置。算法控制者运用个人信息进行决策的场景下,数据主体若认为自动化决策对其权益造成重大影响的,有权要求个人信息处理者予以说明,此项权利乃《个人信息保护法(二审稿)》第四十八条解释说明权的特殊规定,因而算法控制者须按照“具体算法相对人”标准予以解释,不得仅以提供标准化的文本为由主张其已履行说明义务;此外,数据主体若认为算法决策有误的,可选择行使更正权更正、补充不准确或者不完整的个人信息,或直接拒绝算法控制者仅通过自动化决策的方式作出决定。
任何完备的数据保护法律体系都面临着落地实现的难题。《网络安全法》第四十一条明确了收集使用个人信息的合法性基础为“被收集者同意”,《民法典》第一千零三十五条第一款第一项沿用“同意”作为合法性基础,但预留了“法律、行政法规另有规定的除外”的政策空间。《个人信息保护法(二审稿)》第十三条弥补了这一空白,扩大了个人信息处理的合法性基础,然而适用其他合法基础的条件均较为严苛,纵观整部个人信息保护基本法,同意仍贯穿其中。“告知—同意”原则尽管在一定程度上体现了个人享有的对自己信息的处分权能,但实践中各类网络平台和程序的使用协议、隐私政策往往冗长且难以阅读,公众难以在短时间内理解并作出有意义的同意。由于数据主体与算法控制者力量上的显著不对等,这样的结构变成平台企业无限制攫取商业利益的“自由通行证”,当个人点击并接受某些条款和条件并同意某个平台的隐私政策时,他们实际上同意了许多隐藏形式的入侵和操纵性数据收集、使用和存储的做法,干扰和不透明处理,这可能导致对数据主体的各种伤害,包括失去尊重和尊严、歧视性影响和其他与商品化、自我空间侵蚀的系统性影响。实践中法院、监管机构往往根据隐私协议的签订就认定平台企业享有正当获取、处理信息的权利,但这只是一种形式上的审查,并未考虑到实践中用户的“无选择余地”。此外,按照法律的要求,每一次数据收集行为,每一次处理目的、处理方式或处理的信息种类发生变更,每一次将个人信息用于自动化决策都须获得数据主体的用意,即使让通知更短,更具可读性,用户仍然会因为密集的通知导致无法完全理解每个同意请求并感到厌烦和疲劳。
在面对算法针对个人进行个性化规训,且无法寻找到有效替代机制的当下,数据主体的同意仍然有其规范上的意义。解决上述实践难题的一个方案是,基于个人的数字身份建立受信任虚拟代理,个人可一次性设定自己的隐私偏好,由代理在不同的场景中传达给处理个人信息并进行自动化决策的实体。随着个人信息处理目的或服务条款的不断变化,虚拟代理亦可实时代理个人进行同意,从而满足算法控制者合法利用个人信息的目的。
在赋予个人信息自决权后,法律更应构建多主体共同参与的算法规制体系。法院、监管机构可以采取更加严格的实质审查,限制平台企业、公权力机构的收集、储存、处理、应用行为。在德国,其反垄断机构Bundeskartellamt即禁止了Facebook从其他平台收集用户数据的行为,根据Facebook的条款,用户想要使用社交网络服务,必须同意Facebook通过互联网或智能手机应用程序收集Facebook网站以外的用户数据。管理局的决定涉及不同的数据来源:(1)对于Facebook旗下的公司,可以继续收集数据。然而,只有在用户自愿同意的情况下,才能将数据分配给Facebook用户账户。如果没有得到同意,数据必须保留在各自的服务中,不能与Facebook数据一起处理。(2)从第三方网站收集数据并将其分配给Facebook用户账户也只有在用户自愿同意的情况下才可能。由此,上述第(1)(2)项收集的权限也须分别征得用户的实质同意,而不得作为使用软件的条件。我国的平台经济发展迅速,同样存在着很多违法违规的行为,同样需要监管机构做出具有示范作用的处理。《个人信息保护法(二审稿)》第六章规定了履行个人信息保护职责部门的职责、可采取的措施等,有助于完善全社会各层次算法控制者监管体系。
五、结语
算法的规制不仅仅是一个私法上的问题,更需要多个部门法共同作出回应。但以意思自治为核心的私法强调人的主体性,从而在保障人的权利、促进市场经济的发展方面发挥了巨大的作用。算法这一新兴技术的应用在权力与权利方面的赋能不平等,固化了原有的权力结构,加剧了算法掌控者与个人之间在知识、力量上的不对等。因此,算法规制的私法进路,也是对新社会格局下权力主体与个人之间权利义务的安排。考虑到信息(数据)集合的巨大财产价值,以及实践中算法控制者肆意收集、获取个人信息(数据)的现状,应明确数据主体的个人信息权,算法控制者仅享有相应的使用权。考虑到算法时代保护个人隐私的迫切社会需求,应当落实隐私权的权能和救济路径。算法控制者与数据主体之间的关系,体现为数据主体用信息(数据)换取服务,应当解释为信义法律关系,以信义义务的标准检视算法控制者的行为。
原文编辑:孙希睿
原文校对:周哲雨
原文审核:李孝弟
原文链接
中国问题||算法规制的私法道路
《上海大学学报》(社会科学版)简介
《上海大学学报》(社会科学版)是社会科学的综合性学术理论期刊,设有哲学、美学、法学、文学、语言学、历史学、社会学、经济学、管理学、影视学、传播学、教育学等栏目。本刊的宗旨是立足上海大学,放眼全国高校和科研单位,关注国内外哲学社会科学的最新动态,把办刊与祖国的社会主义现代化建设紧密结合,为中华民族全面振兴的伟大事业作出贡献。《上海大学学报》(社会科学版)先后进入“中国人文社会科学核心期刊”、“中国人文社会科学学报核心期刊”和“全国中文核心期刊”的行列,继被评为“首届全国百强社科学报”后,又获“全国百强社科学报”二连冠、三连冠,获中国学术期刊光盘版CAJ规范执行优秀奖等荣誉。
,
免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com