1、以数据驱动的算法决策在公共部门和商业领域得到广泛应用,算法治理的呼声此起彼伏,算法解释权据此成为理论界与实务界关注的焦点。针对算法解释权能否作为一项法律权利,支持者与反对者都提出有力的论证。根据新兴权利的证成标准,算法解释权同时满足合理性、合法性与现实性标准,应当认定 个人信息保护法 第2 4条、第4 8条已赋予数据主体算法解释权。但算法解释权利在制度构造上需进一步限定,具体包括解释权的解释内容限于事后解释,通过权利主体、决策类型、行使边界限制适用范围及参照动态体系论中的具体要素,结合应用场景,确立算法解释标准。关键词:算法决策;算法解释权;算法解释标准 中图分类号:D 9 1 3 文献标识码
2、:A 文章编号:1 0 0 8-4 0 7 X(2 0 2 3)0 3-0 0 6 5-0 9 收稿日期:2 0 2 1-0 9-2 7;修回日期:2 0 2 2-0 6-1 9作者简介:何新新(1 9 9 1-),女,山东济宁人,中南财经政法大学法学院博士研究生,主要从事网络法、法学理论研究,E-m a i l:1 3 1 6 4 6 7 6 5 3 11 6 3.c o m。2 0 1 6年,在美国威斯康辛州诉卢米斯案(S t a t ev.L o o m i s)中,法院运用C OMP A S评估工具对被告的累犯风险进行评估,作为法官量刑的参考。被告卢米斯认为,法官使用C OMP A S
3、算法作出的自动化决策侵害了其正当程序权利。尽管终审法院驳回被告卢米斯的上诉,但算法辅助刑事裁判的不确定性和可解释性风险不容小觑。基于自动化决策的算法不公开、不接受质询、不提供解释、不进行救济,当其对算法相对人权利和正当利益产生重大不利影响时,相对人无从知晓决策的原因16 6。算法决策在公共领域和商业领域的普及和发展,对个人权利保护产生巨大影响。算法治理呼声此起彼伏,算法解释权成为实务界与理论界关注的焦点。为此,学者开始围绕算法解释权的性质、正当性与适用范围展开讨论。有学者认为,根据欧盟 一般数据保护条例(G e n e r a lD a t aP r o t e c t i o nR e g
4、u-l a t i o n,以下简称G D P R)序言第7 1条、正文第1 31 6条、第2 2条的立法精神和法律涵义,可以得出数据主体享有新型“算法解释权”。有学者则对上述观点持怀疑态度,通过分析G D P R限制性和约束性条款21 8,得出数据主体的权利比预期更有限,其不享有算法解释权37 6。2 0 2 1年8月全国人大常委会公布的 个人信息保护法 第2 4条第3款和第4 8条规定,在法定事由出现时,通过自动化决策方式作出对个人权益有重大影响的决定,信息主体有权要求信息处理者对信息处理规则予以解释说明。与访问权、删除权、限制处理权不同,解释权在G D P R中没有明确被提出。作为一种推
5、定的权利,学界对算法解释权是否存在以及能否是一种值得保护的法律权利存有争议。如果不是一项法律权利,其理由是什么;如果是,背后的价值与理论基础是什么。对于此种权利,我国法律如何应对?是借鉴和参考欧洲进路4,抑或保持一定程度的怀疑5,皆需要进行逐个分析和论证。由此,研究算法解释权具有重要的理论与实践意义。一、算法解释权之争1.算法解释权的萌芽与发展算法解释权制度经历了萌芽、形成和发展3个阶段。欧洲对算法进行解释的萌芽出现在2 0世纪7 0年代末的法国。1 9 9 5年欧盟 个人数据保护指令(以下简称9 5指令)的颁布至G D P R颁布前是算法解释权的形成期。2 0 1 6年至今是算法解释权制度的
6、高速发展期。算法解释权萌芽于法国1 9 7 8年第7 8-1 7号 法律-信息技术、档案和自由法。该法第3 9条规定,基于自动化处理作出的对个人权益有重大影响的决定时,数据主体有权知道自动化处理的逻辑信息并有权拒绝自动化处理作出的决定61 4 4。向数据主体提供自动化处理的逻辑信息是算法控制者的法定义务。自动化处理的逻辑信息包括个人信息的处理目的、处理方式、个人信息种类等。受法国数据保护法的影响,葡萄牙、西班牙等国家也将该规定蕴含的立法精神纳入其数据保护法范围内7。1 9 8 1年欧盟以公约形式颁布 关于个人数据自动处理过程中的个人保护公约(以下简称1 0 8号公约),该公约第9条a款明确规定
7、数据主体有权不受仅基于自动化方式作出对其有重大影响的决策的制约;第9条b款规定数据控制者应当根据数据主体的请求,在合理期限内,以清晰、透明、可理解的方式向其提供有关数据来源、数据处理的过程以及数据处理背后的逻辑信息。1 0 8号公约 赋予数据主体更大的数据控制权,当算法决策结果(包括数据画像)作用于数据主体时,数据主体有权获得数据处理规则背后的逻辑知识。区别于以计算机语言为基础的算法技术解释,算法解释权并不是要求算法控制者公开元代码,而是以理解为取向,围绕与具体算法决策相关的数据类型、权重、数据处理规则等内容展开解释。从欧盟1 9 9 5年实施的 个人数据保护指令(以下简称9 5指令)到G D
8、 P R颁布之前为算法解释权的形成期。自2 0世纪9 0年代始,欧洲法律一直关注算法决策在金融、保险、住房等领域广泛应用引发不透明、不可解释问题。欧盟9 5指令 第1 5条规定,对公民权利具有重大影响的决定不能仅基于自动决策方式作出。一些欧盟成员国认为这是一项严格的禁令,另一些成员国则认为这赋予了公民质疑这一决定并要求“人工干预”的权利。同时,该指令第1 2条规定,用户有权了解其信息是否被处理以及如何被处理,也有权获得“任何自动处理所涉及的逻辑知识”的具体解释22 4。数据主体有权对自动化决策进行干预以便表达他们的观点。这意味9 5指令 将数据主体纳入决策处理过程,以使其能够参与算法治理。2
9、0 0 2年德国 联邦数据保护法 为执行9 5指令 第6条规定,使用自动化方式处理个人数据,数据控制者应向数据主体提供有关自动化处理的有意义的信息。2 0 1 5年,德国数据保护法 第6条第a款第2项增设,数据主体有权获得自动化方式所作出的决定的解释,内容包括自动化决定做出的逻辑过程、理由以及有意义的信息。自9 5指令 颁布以来,数据主体有权获得有关自动化决策的解释被大多数欧盟成员国的法律所采纳。解释权始于访问权,并逐步发展为一项独立的权利。在9 5指令 规定的访问权中,赋予自然人有权获得算法处理解释的权利,旨在保护自然人的信息安全、信息隐私权益。随着算法在国家、社会和个人生活领域的广泛应用,
10、传统数据保护规定难以解决算法应用带来的新挑战,G D P R“解释权”在学理层面受到学者们的广泛关注。2 0 1 6年至今为算法解释权的发展期。2 0 1 7年法国 公共行政关系法 第3 1 1-3-1-2条规定,运用算法作出的行政决定,行政机关应向公民提供算法决策所涉模型、大致参数、一般权重、数据来源等24 6-5 4。2 0 1 8年G D P R在第1 3(2)(f)条与第1 4(2)(g)条中规定,自然人有权知晓关于算法自动化逻辑的信息以及该决策结果对数据 权利或合法 利益造成的 预期影响26 4。上述立法旨意在G D P R正文第2 2(1)和第2 2(4)中也有所体现。G D P
11、R第2 2(1)条赋予数据主体免受算法约束的权利,即数据主体免受仅基于算法处理(包括识别分析)对其法律权利或经济上产生重大影响的决策的约束。该条第2款还规定了对相对人法律权利或经济上产生重大影响的完全自动化决策禁止的例外情形:(1)该算法决策是数据当事人和数据控制者之间签订或履行合同所必需;(2)算法控制者获得了由欧盟或成员国法律授权且其已采取适当技术安全保障措施,即保障数据主体基本权利和正当利益;(3)基于数据当事人的明确同意。值得注意的是,该条第3款在第2款基础上规定,数据控制者应采取适当技术安全措施,保障数据主体基本权利和正当利益。第2 9号工作组亦对第2 2条的规定作出广义解释,即基于
12、“完全自动化决策”的决定,包括虽有人工干预,但人工干预对自动化决策结果不产生实质性影响的情形82 1。同时,结合G D P R序言7 1条,“适当技术安全措施”包括数据主体有权质疑算法决策,并有权获得算法评估后所作决定之解释权。算法决策作为数据处理活动的重要方式。为规范数据处理活动,保障国家、公民与组织的合法权益,我国 数据安全法 第8条和第3 2条明确要求数据处理者在数据处理活动遵循合法性原则、比例原则和诚信原则,遵守社会公德和商业道德,并履行数据安全保障义务。为规范算法推荐活动,保障用户合法权益,防止算法推荐服务提供者利用算法实施垄断和不正当竞争行为,根据我国 网络安全法 数据安全法 个人
13、信息保护法 等法律法规,我国网信办联合公安部、工业和信息化部等部门发布 互联网信息服务算法推荐管理规定,该规定第1 5条、第1 6条与第1 7条要求算法推荐服务提供者以显著方式公开算法推荐服务的意图、一般原理及其运行机制。特别是当算法应用对用户权利产生重大不利影响时,算法推荐服务提供者应对算法决策运行的原理、事实和理由作出解释。随着算法应用场景的拓展,算法技术在便利人们生活的同时,也66大连理工大学学报(社会科学版)第4 4卷 对个人信息权益保护带来挑战。为遏制个人信息被非法收集、滥用风险,我国信息安全标准化委员会发布 信息安全技术个人信息安全规范(G B/T3 5 2 7 3-2 0 2 0
14、),该规范第7.7条对算法决策系统的使用作出限制规定。如当算法决定对个人的信用评价、贷款额度、面试申请等产生重大不利影响时,算法系统使用者应针对算法决策结果,向个人提供投诉渠道与人工复核。同时,算法解释权的具体内容还体现于我国 个人信息保护法 第2 4条第(3)款信息处理者的算法解释义务以及第4 8条的解释说明权。学界对于“算法解释权”能否作为独立的权利还存有争议。肯定说认为算法解释权有其存在的正当、合法性基础,能够作为一项独立的权利。否定说认为该权利既不可行,也无必要,不能作为独立的请求权。算法解释权是否存在?欲对这一问题进行回答,我们有必要对支持和反对算法解释权的已有观点进行分析。2.肯定
15、说:算法解释权是一项法律权利(1)算法解释权的正当价值支持算法解释权的学者认为,基于控权逻辑,算法解释权具有实现算法正义,增进算法透明、督促算法问责的理论价值。算法解释权有助于平衡算法决策使用者与算法决策相对人的利益,解决“算法暴政”“算法霸权”问题。算法解释权增进算法决策的透明度和决策结果的公正16 9-7 2。算法解释权旨在让个人知晓对其不利的自动化决策是如何作出的91 4 2 6。算法解释权有助于弥合算法决策当事人之间的数字鸿沟,防止“算法霸权”1 01 8 9。持肯定说的学者认为,由于算法“黑箱”的存在,人们难以知晓算法决策的运行逻辑,导致算法责任缺失。算法解释权赋予个人要求算法决策使
16、用者对算法决策规则作出解释1 11 5 6,便于个人知晓算法决策处理规则。(2)作为规则的算法应具有可解释性公开透明原则要求个人信息和处理者明示自动化信息处理的规则、目的和范围。针对算法决策,第2 5条第1款规定利用算法决策处理个人信息,应保证决策的透明度和结果的公正。其中第3款规定以自动化方式对个人权利产生重大不利影响,个人有权要求算法决策使用者予以说明。可见,作为信息自动化处理的重要类型之一,算法决策应当遵循信息处理的透明可解释原则。持肯定观点的学者认为,通过特定的解释方法,可以回避解释上的技术难题和认知上的理解难题。算法解释权在欧美法中已被确认为一项法定权利,G D P R序言第7 1条
17、和正文第1 3条(2)款(f)项、第1 4条(2)款(g)项、第1 5条(1)款(h)项、第2 2条(3)款,美国 公平信用报告法 第6 0 4条规定的算法决策不利结果告知规则,以及2 0 1 7年 关于算法透明和算法问责声明 中规定的算法解释原则,确认了算法解释权。伴随算法决策的商用和普及,人们对算法决策可解释的需求愈加迫切,针对算法的可解释性问题,持肯定态度的学者认为,多数算法具有可解释性1 11 5 8。在计算机科学领域,算法可解释性方法已有重大突破,为算法解释权的实现提供了技术支撑。(3)可理解性的解释标准与适用范围算法是以自动化方式处理个人信息,理应遵循告知同意规则。G D P R第
18、6条(1)款和我国 个人信息保护法 第1 7条(1)款明确规定处理个人信息前的告知方式。算法解释权追求的是可理解的解释标准1 01 8 7和合理的透明度。算法解释面对的是生活世界中的普通大众,解释的目的在于使不具有算法专业知识背景的个人能够理解1 29 1。具体解释方法:一是“易读性方法”,即通过示例、可视化图标,运用直白清晰的语言向普通大众予以解释1 31 2 1。二是“反设事实解释”方法,无需打开算法“黑盒”,通过改变输入数据,观察输入数据和输出结果间的关联关系,以判断输入数据对输出结果的影响程度1 41 8 8。持肯定观点的学者认为,通过明确算法解释权的适用范围和启动条件,可以调和算法解
19、释与商业秘密间的关系。为规避算法解释权行使,侵害他人正当利益,算法解释权旨在为个人提供事后的救济,要求算法决策使用者提供对个人有意义的信息,而无需公开元代码和技术细节1 11 5 8。例如,解释的内容限于具体决策所使用的数据种类、数据权重、用户画像等信息1 29 2。从算法解释权的解释内容和解释标准可以看出,算法解释权寻求的是合理的透明度,不仅不会侵犯算法商业秘密,而且有利于实现算法问责,增进算法信任,具有存在的合理性。3.否定说:算法解释权不是一项法律权利持否定观点的学者从质疑算法解释权的功能价值、适用范围、解释标准及其存在的法理依据等方面展开论证。(1)机器学习算法可解释性弱在反对者看来,
20、算法解释权首要的问题在于机器学习算法的可解释性较弱。对于没有算法专业背景的人,即使赋予个人算法解释权,个人也难以获得理解。在算法应用场合下,可解释性的要求尽管为深度学习算法的解释提供稳固的技术基础,但可能会削弱算法决策的性能和效益1 51 0 4。深度学习算法模型包含复76 第3期何新新:算法解释权的证成与限定杂的多层神经网络结构,每个用户可能拥有数以百万甚至上亿计的变量,从中所提取的数据权重或变量是一些抽象的行为序列、模拟信号数字化,难以运用清晰易懂的语言或可视化工具予以表达25 9-6 0。在复杂的机器学习模型中,即使运用易读性方法或“反设事实解释”方法,算法解释权的解释标准在技术上也难以
21、实现。(2)算法解释权的适用标准不明算法解释权在欧盟法律中是否存在,还具有争议。即使算法解释权存在,这一权利也存在着适用标准或规则不明确。持否定说的学者认为,我国 个人信息保护法 第2 4条 属 于 知 情 权 范 畴,并 不 是 算 法 解 释权1 51 0 5。G D P R第1 3条(2)款(f)项、第1 4条(2)款(g)项是关于知情权的规定。G D P R第2 2条是关于免于算法决定权规定,不能成为算法解释权规范依据。此外,该权利的解释标准不明,解释内容不清。如解释内容的复杂性、专业性与解释标准的可理解性存在矛盾。对于何为“重大”的算法决策,亦缺乏明确的适用标准1 64 9。算法解释
22、权尚未成为域外国家的通例,无论是欧盟出台的G D P R,还是我国颁布的 个人信息保护法 都不证成算法解释权。(3)算法解释权与算法商业秘密保护间的张力持否定说学者认为,算法解释有可能侵犯算法使用者的商业秘密1 51 0 4。例如,风险评估算法,被告要求公开,法院因侵犯商业秘密予以拒绝。否定说认为,即使通过设置算法解释权启动的条件和适用范围,也难以避免算法解释对商业秘密的侵害。个人在行使算法解释权的过程中,必然会要求算法决策者履行解释义务。在商业领域,算法解释权的行使可能带来个人隐私和商业秘密的泄露。从长远来看,算法解释权会阻碍数字经济的发展,抑制算法应用的创新和研发,影响企业的核心竞争力。二
23、、算法解释权的证成:对否定说的回应从算法解释权之争可以发现,肯定说与否定说都有一定的合理性。算法解释权的反对理由明确指出算法解释权与商业秘密之间的紧张关系,认识到算法决策的复杂性和算法解释标准所面临的困境。面对算法技术带来系列挑战,持肯定观点的学者,至少从理论层面论证了“解释权”设立的合理性。如果“解释权”的否定者仅从算法不具有可解释、算法解释适用标准不明确、算法解释限度难以确定方面否定算法解释权的存在,将难以支撑自身的立场。作为新兴权利,算法解释权需要同时满足合理性、合法性与现实性标准。合理性标准是指权利有被保护的合理性,即该权利与个人的道德地位和自治相关,其保护的利益具有正当性。合法性标准
24、强调能够被既有的法律所容纳,可以从法律明文规定的基础权利中推定出来。现实性标准是指基于社会成本或政策性考量,该权利在现实中实现的可能性。1.合理性标准:算法解释权的正当性权利的合理性标准意味着权利所保护的利益具有正当性。当算法决策对个人权利产生不利影响时,个人有权知晓算法决策是如何作出的以及自己的个人信息是如何被处理的。算法解释权是决策双方基于信任,互相尊重、理解和沟通。算法解释权建立在个体赋权的基础上,对保护个人信息权益,规范个人信息处理活动具有重要的理论意义和实践价值。它遵循以权利制约权力的控权逻辑,是矫正信息不对等,促进平等、正义价值实现的工具。算法解释权旨在保护个人的自治。个人自治对人
25、的道德地位的尊重和保护1 72 3。算法解释权以独特的方式来保护和尊重人的自由意志或者说自治。算法解释权为算法当事人建立了一个平等商谈的纠纷化解平台。解释内容包括算法决策作出所涉及的逻辑、决策的重要性以及对个体可能产生的预期后果。这在一定程度上不仅有利于在算法当事人之间形成以理解为取向的沟通机制,而且也有利于实现算法信任。因此,为实现个人信息安全与个人信息自由流通间的协调,平衡个人利益与公共利益1 81 7 8,防止算法决策对公民基本权利造成侵害,个人有权要求算法决策使用者对具体算法决策结果作出解释。2.合法性标准:算法解释权得到现有立法的认可作为新兴权利,算法解释权在 个人信息保护法中已被认
26、可。自动化算法决策作为处理个人信息的重要方式,我国 民法典 第1 0 3 5条规定个人信息处理的公开原则。网络安全法 第4 1条第1款规定公开处理信息规则,明示收集、使用信息的目的和方式。个人信息保护法 第7条、第1 4条、第1 7条对 民法典第1 0 3 5条予以细化,即公开透明、明示处理,保障个人充分知情,且经由个人明确、自愿作出。为保障个人充分知情,该法第1 7条细化了告知的形式要件和实质内容。第2 4条针对算法决策作出专门规定,算法决策应当保证决策过程的透明和结果的公正。当拟作出的算法决策有可能侵犯个人基本权利或正当利益时,个人有权获得关于该决策理由和依据的解释说明。第4 8条进86大
27、连理工大学学报(社会科学版)第4 4卷 一步肯定算法解释权。从 民法典 第1 0 3 5条到 个人信息保护法 第7条、第2 4条、第4 8条的规则内容中,可以肯定算法解释权能够单独作为一项法律权利。2 0 2 0年国家标准委员会发布的 信息安全技术个人信息安全规范 第7.7项明确了信息系统自动化决策机制的使用。算法决策机制对个人权益造成显著影响的(如自动决定个人贷款申请额度、个人征信状况、自动简历筛选等),算法决策使用者应当向个人提供针对自动化决策结果的投诉渠道。该规范在8.7响应个人信息主体的请求中第(f)项中明确规定,算法决策使用者应积极响应个人有关算法决策的请求。算法决策使用者拒绝响应个
28、人请求的,应当向个人告知该决定的理由。从信息处理的公开透明原则、细化告知的形式与内容到对算法决策的解释与说明,算法决策解释权可以从知情同意和个人针对算法决策所享有的权利中推导出来,故算法解释权满足了合法性标准。赋予个人算法解释权,由算法决策使用者承担算法解释义务,在一定程度上能够督促算法决策使用者以负责任的态度,积极探索算法解释的方法。3.现实性标准:算法解释权具有被实现的可能性(1)算法决策应当具有可解释性否定说之所以认为深度学习算法不具有可解释性,原因在于误将深度学习算法的复杂性当作算法的不可解释性。算法决策尽管在技术领域和应用领域面临着解释难题,但并不能直接否定算法具有可解释性。目前针对
29、算法可解释性问题引起国内外学者广泛关注,产生了许多具有可操作性的解释方法。从个人需求的角度,当前算法解释方法主要分为以下4类:用户易于理解的知识解释方法、直观探测内部的视觉解释方法、外部扰动的探索解释方法和合乎常理的因果解释方法1 95 3 0-5 3 2。可解释性算法从算法决策受众视角,为拥有不同知识背景的个人(如用户)提供算法决策结果的解释。算法解释的目标是将算法黑箱转化为可解释的决策推断,使个人能够理解和信任决策。(2)算法解释权与商业秘密的和解持否定意见的学者认为,算法解释权有可能会造成个人隐私、商业秘密等数据的泄露1 51 0 5。否定说将披露元代码和技术细节作为算法解释的重要内容。
30、作为事后的补救机制,算法解释权并不要求披露元代码和技术细节。算法解释权旨在保障个人的自主和知情权,其解释内容限于与算法决策结果相关的数据种类、所占权重、自动化处理规则等内容。在“陈某诉杭州某软件服务公司网络服务合同纠纷案”2 0中,尽管某软件服务公司算法过滤系统的商业秘密性质获得法院的支持,但法院通过引入中立的专家小组对算法决策系统进行审查,并要求某软件服务公司网络平台履行算法解释义务,即围绕算法过滤系统运行的一般原理和具体结果向原告作出合理的解释与说明。在美国卢米斯案(S t a t ev.L o o m i s)中,法官利用C OMP A S累犯风险评分算法作出对被告人卢米斯具有重大不利影
31、响的量刑决定。卢米斯以该算法决定侵犯其正当程序权利为由,要求法院履行算法解释义务。但法院以C OM-P A S算法商业秘密保护为由,拒绝了被告的请求。法院拒绝履行算法解释义务的行为,侵犯被告人算法解释权。这对法院依据正当法律程序,作出独立公正判决产生消极影响。诚然,算法被列为商业秘密保护的对象,但当算法嵌入到基础性公共领域中,理应受到合乎公共善的道德原则和体现公共理性的法治原则的限制。算法解释权尊重人的尊严和自主选择,体现在相对人行使自主权,要求算法决策使用者提供解释。知识产权不仅在于对个体方面的激励,更在于其对公共利益的维护2 11 8 8。算法商业秘密不是绝对的2 21 0 7,并非所有的
32、算法都可以作为商业秘密的保护对象。算法决策被广泛嵌入公共领域,商业秘密的保护应当受公共领域保留原则的限制。算法解释权与商业秘密的和解路径,应结合具体的应用场景,运用价值衡量,综合判断。算法解释权力图实现的是一种平衡各方利益的适度透明性目标。(3)算法解释权能够防止算法运行危害成本的外化基于对算法解释权成本与效率的考量,该权利具有实现的可能性。算法解释权不必然具有负外部效应。否定说认为算法解释权在权利保障上是低效的、不经济的,也难以实现矫正算法权力的功能1 51 0 5。算法决策建立在复杂技术和海量数据处理之上,面对算法运行带来的危害成本的弥散,算法决策使用者往往以算法技术的复杂性和不可解释性为
33、理由转移算法责任。知晓算法运行逻辑,及时发现算法决策过程中的漏洞,不仅可以有效避免算法决策错误带来的负外部效应,而且也有利于促进算法问责。为了防止用户滥用权利,通过设置算法解释权的启动条件,对权利的主体、权利内容、适用范围、行使程序进行限定,可以避免产生较高的解释成本,影响算法决策效率,加重企业解释负担。如行使权利主体必须是受到重大不利影响的个人,解释的内容限于提供与算法决策相关的、具有法律意义的理由和依据,而不是96 第3期何新新:算法解释权的证成与限定要求算法决策者公开源代码和技术细节。综上,算法解释权的证成涉及合理性、合法性和具有被实现可能性的综合判断。从价值存在的合理性到实证标准的顺序
34、来论述,表明一项新兴权利的证成既要体现正当利益,又要在合法性层面满足最低的条件,还要基于社会成本的现实考量,才有被实现的可能性。算法解释权同时具备合理性、合法性与现实性,依然成为一项独立的法律权利。三、算法解释权行使的限度通过研究算法解释权制度的流变,重新审视学者们对该制度的争议焦点,结合G D P R和我国 个人信息保护法 第2 4条、第4 8条的规定,我国尽管对算法解释权的权利范围、启动条件有了初步的制度模型,但算法解释权的解释内容、适用范围、解释标准还有待进一步明确和限定。1.解释内容的限定:事后解释算法解释权是指高度或完全自动化算法决策对个人的权利产生法律上或类似重大影响,个人有权向算
35、法决策使用者提出异议、表达观点、要求其对决策过程和结果作出解释。从算法决策运作程序观之,算法决策可以分为个人信息收集前的告知阶段、算法模型的建模阶段以及算法决策作出具体决定的阶段。表1 G D P R与 个人信息保护法 关于算法解释权的条文梳理算法解释权的权利内容G D P R序言和正文对算法解释权的规定 个人信息保护法 相关条文对算法解释权的规定所涉算法决策阶段事前第1 3条(1)(c)、(2)(f);第1 4条(1)(c)、(2)(g);第3 5条第1 7条;第5 5条;第5 7条事中第1 5条(1)(h);第3 5条第2 2条;第2 3条;第5 4条;第5 7条事后序言7 1;第3 5条
36、第2 4条;第4 8条解释内容收集个人信息的种类、保存期限序言7 1;第1 3条;第1 4条第1 7条(1);第5 2条;第5 7条信息处理规则(处理目的、处理方式、处理的重要性、具体处理决定、预期后果)序言7 1;第1 3条(1)(c)、(2)(f);第1 4条(1)(c)、(2)(g);第1 5条(1)(h);第3 5条(7)第7条;第1 7条(2);第5 5条;第5 6条(1)、(2)、(3);第5 8条(3)个人行使权利的方式和程序第5条(1);第1 2条(2)第1 7条(3);第5 0条 根据算法决策所涉阶段的不同,算法解释内容仅限于算法决策作出后的具体解释,包括与算法决策结果相关的
37、数据、算法决策的目标、算法决策的处理规则、对参数的处理方式、对各项指标的加权幅度、合规情况等2 35 2。事后解释是一种更倾向于个体主义的解释2 49 8,其在我国 个人信息保护法 第2 4条中予以肯定。事后解释有助于个人理解对其不利的具体决定是如何作出的。从表1G D P R和 个人信息保护法 算法解释权条文中可以看出,算法解释权的内容限于与具体算法决策结果相关的信息处理规则。具体而言,信息处理规则包括算法设定的目标、算法决策的预期后果、具体决策所参考的个人信息种类、具体处理决定考量的每种因素的权重以及决策适用的规则是否满足合法、正当、必要性标准。以美团外卖公布骑手“预估送达时间”算法计算规
38、则为例。由于美团外卖使用的“预估送达时间”算法对外卖配送人员的生命安全造成威胁。美团作为算法解释权的义务主体,需要对“预估送达时间”最终结果作出解释。解释内容包括与算法决策结果相关的骑手送餐的历史数据、城市道路通行状况、商家出餐时间、骑手取餐时间、配送距离、具体决策所考量的各数据权重以及算法决策规则是否合规等。事后解释旨在为错误的算法决策作出更正、补充。个人可以要求算法决策使用者解释具体决定的逻辑和个人数据的权重17 2。通过解释,若发现算法决策所依据的某种数据权重(性别、种族、年龄等)、算法技术本身以及输入或存储的数据存在错误或歧视性因素,算法使用者应当根据算法相对人请求,审查并修正由于算法
39、技术或数据局限导致的自动化决策结果。2.适用范围限制:主体要求、决策类型与行使边界为在数据主体权利保护与促进算法技术发展之间取得平衡,需要规范算法解释权的启动条件,设定合理的算法解释权适用范围。根据G D P R第2 2条第1款和第2款关于自动化决策的规定,算法解释权的适用范围针对的是没有人工参与或人工参与没有达到必要程度的高度或完全自动化决策对个人作出的对其具有法律影响或类似严重影响的决定。从法律关系上来看,算法解释权的权利主体为个人(如用户),算法解释权的义务主体是算法决策使用07大连理工大学学报(社会科学版)第4 4卷 者(如使用算法决策的公共部门和私营企业等)。行使算法解释权的权利主体
40、必须是其权益受到自动化决策重大不利影响的个人。如何界定“自动化决定对个人权益产生重大影响”是学者们关注的焦点2 58 0。根据G D P R文本的立法经验,结合我国 个人信息保护法第2 4条和第4 8条的规定,“对个人权益有重大影响”主要指自动化决定对个人法定权利和经济利益产生的消极影响。根据自动化决策的应用场景不同,法律上的影响主要指高度或完全自动化决策对个人的自主、尊严和正当利益造成消极后果。算法决策对个人的行为选择、社会境遇、社会评价等产生负面影响,进而迫使个人遭遇歧视或被剥夺某种机会或权利1 01 8 7。如在金融信贷信用评估、在线营销、算法定价系统等场景中,相对人因自动化算法决策的不
41、当使用,而被歧视或被剥夺某些机会,导致其承受到重大不利的经济影响。算法解释权对决策自动化程度的要求,强调自动化决策未达到人类对决策结果干预的必要程度。启动算法解释权的关 键取决于人 的参与是否 达到必要 程度2 65 9。欧盟G D P R第2 2条第1款规定,自动化决策限于“仅基于自动化处理”。对此款的理解不能仅局限于文义解释,应结合该条款与其他条款的关系以及该条款在整个G D P R中的作用,关键要看人工参与对最终决定结果是否起到实质性作用。若对相对人权利产生严重影响的决策结果基本上是由算法决定的,人工在决策中只起辅助性作用。此种情形就属于“未达到人类对决策结果干预的必要程度”,个人可以行
42、使算法解释权。算法解释权的行使不得影响其他人的权利、自由、正当利益。G D P R序言和正文第1 5条第4款、第2 0条第4款、第2 1条第1款以及第2 2条的规定,考虑到算法控制者的合法正当权益,“其他人的权利、自由、正当利益”应当包括商业秘密或知识产权。根据G D P R正文第2 1条第1款的规定,算法决策使用者能够证明其享有的合法正当权利优于个人的利益、权利与自由,算法决策使用者可以阻却数据主体算法解释权的行使。我国 个人信息保护法 第1 8条规定信息控制者处理个人信息,根据法律或行政法规应当保密或不需要告知的情形。结合G D P R第2 1条 第1款、我国 个人信息保护法 第6 9条,
43、采用举证责任倒置。若信息控制者拒绝算法解释权利主体的请求或处理个人信息侵害个人信息权益造成损害,个人信息处理者不能证明其享有的合法权利(商业秘密或知识产权)优于被保护的算法决策 相对人的权 利,应 当 承 担 解 释 义 务。G D P R第5条第1款、第1 2条规定信息控制者向个人告知的形式要求和实质内容。面向算法决策相对人,算法解释权要求算法决策使用者以公开、透明、可理解的方式对自动化决策背后的理由予以说明,一般情形下是不会侵犯算法使用者的商业秘密。只有当个人所要求的算法决策的解释内容可能对算法商业秘密构成侵害时,结合具体语境,算法决策使用者能够承担证明其权利优于个人权利的举证责任,其解释
44、义务才能被豁免。3.算法解释标准的限定:以动态体系要素为衡量标准动态体系论由德国学者布雷登巴赫提出,学者洛伦茨与弗莱舍进行了适当完善。动态体系论通过运用信息需求、披露可能性、期待合理性与信赖紧密度4个要素,使算法决策者的解释义务判断标准更具可操作性2 71 0 3。解释标准是算法解释权利范畴的重要部分。动态体系要素对于衡量算法解释义务标准具有决定性意义。算法决策使用者承担算法解释义务,通过动态体系要素的判断,使算法决策使用者对算法决策相对人的解释义务得以具体化。算法解释面对的是生活世界中的普通大众,算法解释权的解释标准应满足可理解性和易读性要求。个人信息保护法 第7条、第1 7条以及G D P
45、 R第1 2条规定数据控制者应以简洁、透明、易读和易获取的方式并以清晰直白的语言向数据主体提供逻辑有意义的信息,使相对人能够知晓对其权利或正当利益产生不利影响的自动化决策是如何做出的。动态体系论围绕信息的重要性、信息披露的可能性、期待合理性和信赖紧密度展开。信息的重要性从信息本身的特征切入,信息披露可能性从算法决策使用者观之,期待合理性是从个人视角出发,信赖紧密度从算法决策当事人双方关系视角入手。判断算法决策使用者解释义务标准的高低,既要关注各要素在算法决策过程中单独所起的作用,也要通过要素之间的相互协作,综合判断。按照算法决策的自主化程度及其应用领域,算法解释义务的衡量标准分为以下4个场景:
46、商业应用中的辅助算法决策和高度算法决策、公共事业应用中的辅助算法决策和高度算法决策。根据动态体系下的具体要素要求,算法决策自动化程度越高,算法决策使用者承担算法解释义务的标准随之提高。算法的社会嵌入性和应用领域应是设定衡量算法解释义务标准时的首要考虑因素91 4 4 1。与商业算法决策相比,公共算法决策涉及到公共制度和公共资源的分配和利用,算法决策使用者应承担更高的算法解释义务。17 第3期何新新:算法解释权的证成与限定在商业场景中,算法决策使用者承担算法解释义务的衡量标准,由算法决策所使用的个人信息的种类,该个人信息对个人信息主体的重要程度,算法解释使用者披露信息的可能性,算法解释权人对算法
47、决策方的合理期待以及决策当事人双方所具有的专业知识水平等要素决定。在金融信贷领域,根据信用风险评估算法作出的决定。算法决策使用者一般为信贷机构,被决策者一般是借款人。金融机构掌握着个人信息主体的重要信息,其承担信息披露的可能性高。在算法决策场合,为保护处于弱势地位的个人信息主体的合理信赖,占有技术和信息优势的金融机构应当就其使用的信用风险评估算法作出的对借款人具有重大影响的决定,承担具有合理透明性的解释义务。具体而言,金融机构应向被拒的借款人解释信用风险评估算法运行的规则、所依据的数据类型的权重以及所处理的个人数据是否准确、是否存在歧视因素等信息。在公共事业领域,以动态体系论中的具体要素作为衡
48、量算法解释义务的标准仍然适用。与商业算法决策相比,公共算法决策的应用对公民人身权利和财产权利带来的风险更大。公共算法决策应严格遵循合法性、正当性、公开性和完全的透明性要求。在执法层面,对于全自动化决策而言,其应用将剥夺或限制相对人的人身或重大财产权利时,应谨慎使用不具有透明性和解释难度大的深度学习算法。在行政自主裁量领域,当全自动决策对法治原则影响较小时,执法机关可以使用算法决策,但必须保障行政相对人的正当程序权利2 81 2 0。正当程序的理论重心就在于让公民“感受到程序正义”2 91 2 8,正当程序权利包括行政人员的告知、相对人的选择权、陈述、申辩、提出质疑以及要求行政人员对自动化行政决
49、策结果进行解释的权利。在司法层面,算法决策嵌入司法系统,应当遵守合法性解释原则,建立算法解释规则,赋予利害关系人针对自动决策的内容提出异议或抗辩并获得解释的“人工干预权”3 01 3 3。当事人认为司法机构利用算法系统作出的决策结果存在明显不公或侵犯了个人正当程序权利,相对人有权要求司法机关解释算法决策作出的理由和依据。四、结 语随着算法决策在商业和公共事业场景中广泛应用,算法黑箱引发的算法风险日益加剧。为防范算法风险,促进算法决策过程透明性和可理解性,算法可解释性与算法解释权成为立法者难以回避的重要议题。面对算法解释权之争,本文在对算法解释权肯定说与否定说反思的基础上,运用新兴权利的合法性、合理性和现实性标准对算法解释权予以证成。尽管 个人信息保护法