收藏 分销(赏)

算法权力之否定.pdf

上传人:自信****多点 文档编号:715712 上传时间:2024-02-20 格式:PDF 页数:10 大小:1.12MB
下载 相关 举报
算法权力之否定.pdf_第1页
第1页 / 共10页
算法权力之否定.pdf_第2页
第2页 / 共10页
算法权力之否定.pdf_第3页
第3页 / 共10页
亲,该文档总共10页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、人工智能法治专题文章编号:1008-4355(2023)04-0137-10收稿日期:2023-04-16基金项目:国家社会科学基金一般项目“河湖长制到河湖长治的法治路径研究”(21BFX141)作者简介:欧阳恩钱(1972),男,湖南隆回人,江西师范大学政法学院教授,法学博士。代表性文献如肖冬梅:“后真相”背后的算法权力及其公法规制路径,载行政法学研究2020 年第 4 期,第 3-17 页;孙莹:人工智能算法规制的原理与方法,载西南政法大学学报2020 年第 1 期,第 83-95 页;周辉:算法权力及其规制,载法制与社会发展2019 年第 6 期,第 113-126 页。算法权力之否定欧

2、阳恩钱(江西师范大学 政法学院,南昌 330022)摘 要:“算法权力”的肯定论在认识思路上相当于悬置对象而专注于认识的条件,其实并非对算法本身的认识。从对象实在论角度看,权力是社会关系中产生预期影响的能力;算法广义上指人们解决问题的方式和方法。但无论如何,算法明显不是权力,在算法与权力之间取得联系,唯有通过权力行使的决策过程。而从算法的应用场景或条件角度看,算法的应用也不会生成一种新型的权力;算法应用带给人们权力“压力感”,直接原因在于算法替代权力行使中人类的决策,不仅使权力变得更强大,也使权力的潜在性与现实性模糊,理论根源在于作为手段的算法与权力的目的相结合。为此,法律对算法的回应需要一种

3、目的主义的控制路径。一方面,针对算法与权力内在目的的结合,控制算法的应用范围,并且在此基础上发展权力的沟通机制;另一方面,针对算法与权力外在目的结合,依据“目的-工具理性”注重手段的可调整性,加强对外在目的本身的控制。关键词:算法;权力;目的主义中图分类号:DF36 文献标志码:A DOI:10.3969/j.issn.1008-4355.2023.04.11 开放科学(资源服务)标识码(OSID):一、引言 算法和数据、算力并称为人工智能的三要素。目前,绝大多数学者认为“算法即权力”,提出“算法权力”概念。论者通常的理由是认为算法是人员、资源和技术集合而形成的支配力。这种认识思路相当于悬置对

4、象而专注于认识的条件,因此,“算法权力”概念其实并非对算法本身的认识。将认识对象7312023 年 8 月第 25 卷 第 4 期 Journal of Southwest University of Political Science&Law Aug.,2023Vol.25 No.4的实在论和认识条件的关系论对立起来是错误的,同时,忽略对象的认识也必然是偏颇的。诚然,算法的应用带给人们现实的权力“压力感”,但理论认识不能仅凭感觉或者停留在感觉之上。将算法等同于权力,应对算法的策略就是“制约权力”,主要有两种思路:一是以权利制约权力,包括主张算法解释权,或个人数据保护权;二是以权力制约权力,即

5、通过公法的监管,包括正当程序、算法责任等。第一种思路有现行法的依据,但就算法解释权而言,能够解释的必然是简单的内容,人工智能要具有“悟性”势必超出人类解释能力的范围。再者,即便算法应用者对算法运行程序、内在机理、数据权重等内容进行解释,普通人几乎无法理解。保护个人数据权利是重要的,但算法建立在大数据之上,过度的保护可能阻碍算法技术的发展。第二种思路同样面临“技术鸿沟”问题,并且,实践中制约的更可能是公共部门原本就有的权力,而不是“算法”或者“算法权力”。以算法为核心的人工智能是时代的产物,不管人们愿意与否,如尼古拉斯迪亚科普洛斯说的,它“时刻包围着我们”,改变着我们的生活方式。我们在享受它带来

6、的巨大便利时,必然也要思考它带来的风险,考虑如何应对。而正确认识算法的本质,厘清算法与权力的关系,显然是我们正确应对的基础。有鉴于此,本文拟对当前流行的“算法权力”概念从认识对象与认识条件两个角度澄清其中的谬误,并在此基础上对法律制度如何回应提出设想。二、在权力理论视角下认识算法 (一)权力:社会关系中产生预期影响的能力权力观念是人类主体意识的核心。根据学者的考察,主体意识形成有三个中心范畴:行动在先,活动意识在先,社会意识或群体意识在先。显然,人类主体意识自始就包含今天我们理解的权力概念中的基本要素 “意志”与“力量”。这种主体意识彰显的权力观念首先体现在群体与群体之间的竞争中。不过,人类也

7、从来就是个体的存在,欲望和需要始终是个体人真实的情感和需求。因此,权力观念必定也根植于个体主体意识之中。所以,霍布斯、卢梭和洛克虽然对自然状态理解不同,却得出同样的结论:在自然状态下人们有自我保存的权力,因此,也有为此目的而采取一切手段的权力,并且每个人都是以何种手段实现自我保存必需或者正当的裁判者。在格劳秀斯之后,权力和权利明确分离并被置于公共领域,却依然有着个体主义与集体主义两种截然不同的基本分析范式。831 西南政法大学学报 2023 年第 4 期代表性文献如魏远山:算法解释请求权及其权利范畴研究,载甘肃政法学院学报2020 年版第 1 期,第 143-156 页;廖建凯:“大数据杀熟”

8、法律规制的困境与出路 从消费者的权利保护到经营者算法权力治理,载西南政法大学学报2020 年版第 1 期,第 70-82 页;范玉吉、李宇昕:从权力到权利:算法治理的路径,载西南政法大学学报2022 年第 1 期,第 86-95 页。代表性文献如刘东亮:技术性正当程序:人工智能时代程序法和算法的双重变奏,载比较法研究2020 年第5 期,第64-79 页;胡晶晶:破解公权力领域的算法歧视:权力正当程序的回归,载知识产权2020 年第 4 期,第 76-95 页;陈景辉:算法的法律性质:言论、商业秘密还是正当程序?,载比较法研究2020 年第 2 期,第 120-132 页。参见美尼克:人工智能

9、简史(第 2 版),人民邮电出版社 2021 年版,第 22 页。参见贾章范:论算法解释权不是一项法律权利 兼评个人信息保护法(草案)第二十五条,载电子知识产权2020 年第12 期,第 49-61 页。参见张欣:从算法危机到算法信任:算法治理的多元方案和本土化路径,载华东政法大学学报2019 年第 6 期,第 17-30 页。See Nicholas Diakopoulos,Algorithmic Accountability:Journalistic Investigation of Computational Power Structures,3 Digital Journalism 3

10、98,398-415(2015).参见段德智:主体生成论,人民出版社 2009 年版,第 71 页。个体主义分析范式也称“A-B 模式”或“利益-冲突模式”,其将权力看成如同个体人能够占有的“所有物”,强调权力关系的不对称性或支配性。霍布斯说权力是“人们追求一切显而易见的未来的利益而采用的一切现实手段”。现代学者对权力的分析,如丹尼斯朗将权力定义为“一部分人在另一部分人身上产生预期的和预料的效果的那种能力”,我国学者将权力理解为“合法确认和改变人际关系或处理他人财产或人身的能力”,都是一种个体主义的分析范式。权力观念源起于先民的群体主体意识,但集体主义分析范式却在现代学者如帕森斯和阿伦特所提倡

11、的“权威-媒介模式”中才能完整地体现出来,他们不赞同个体对权力的拥有,也反对将权力置于不对称的支配关系中,而这正是定义权力的关键。为此,帕森斯认为,权力“是能够为有效的集体行动调动资源的一般化媒介”,是人们想要实现任何目标的“一般化手段”。阿伦特则说,权力所对应的不仅仅是人们行事的能力,而且是共同行事的能力。两种分析范式的主要分歧体现在对问题的处理方式上。个体主义分析范式强调权力对问题解决的现实或潜在的可能性,现实或潜在的问题本身始终是权力分析关注的焦点。而在集体主义分析范式中,研究不是从对问题的解决过程入手,而是考虑这种解决过程之所以可能发生的条件。显然,尽管帕森斯和阿伦特的批评是有益的,但

12、却明显不是对个体主义分析范式的取代,其主要是通过揭示权力的存在条件而通向对权力本身的认识,个体主义分析范式则更多指向权力的功能。综合两种分析范式,建立一个统一的权力概念也就有了可能。伯特兰罗素将权力界定为“若干预期结果的产生”,就是一种尝试。不过,罗素的定义不能包含个体主义分析范式中权力的潜在性,也太过于宽泛,不能将权力与自然界的能量或纯粹的体力相区分。鉴于其简单明了,笔者对之稍加改造,将权力的一般概念定义为社会关系中产生预期影响的能力。将权力定义为“能力”,突出权力的潜在性,也有“现实性”的意思。“能力”是心理学的概念,指人们顺利实现某种活动的心理条件,既指实际能力,又指潜在能力。医生的专业

13、技能在权力分析中通常认为是个体性权力,只有在诊断活动中表现出来才能认为其拥有专业技能;不过,如果他实际拥有技能,即便没有诊断疾病,我们也认为他拥有这种技能。权力概念中的“影响”也有两方面含义,如果没有给人们造成任何的内在影响,就不能认为是权力,但即便没有产生现实支配人们行为的外在影响,也仍然应当肯定权力的存在。“预期”指权力本身和人们以权力为手段对目的的追求,体现权力概念中的“意志”要素。权力本身所追求的就是现实支配人们的行为,人们以权力为手段有时会有其他的目的追求,但现实支配人们的行为是基础性的。(二)算法与权力行使中的决策具有可类比性如此,“力量”虽然是权力概念的构成要素,但现实地运用力量

14、 权力行使却清楚地区别于权力本身。这里的分析框架显然也符合汉语中“权力”的概念。当然,权力行使并不仅指运用体力这种物931欧阳恩钱:算法权力之否定英霍布斯:利维坦,黎思复、黎廷弼译,商务印书馆 2013 年版,第 62 页。美丹尼斯朗:权力论,陆震纶、郑明哲译,中国社会科学出版社 2001 年版,第 3 页。周永坤:规范权力 权力的法理研究,法律出版社 2006 年版,第 11 页。See Taloott Parsons,On the Concept of Political Power,107 Proceedings of the American Philosophical Society

15、 232,232-262(1963).See Arendt.A,Communicative Power,in Lukes,S.eds.,Power,New York University Press,1986,p.64.英伯特兰罗素:权力论,吴友三译,商务印书馆 2012 年版,第 26 页。参见彭聃龄:普通心理学,北京师范大学出版社 2012 年版,第 450 页。理力量,也包括运用话语力量、经济力量等。而即便是直接运用体力行使权力,也离不开决策(判断)的心理过程。比如,法官命令有关人员退出法庭,如果不服从,司法警察就使用强力将其带出。司法警察在行动中也会有具体如何做的决策过程,人们通常认为

16、这里的决策就是本能,但本能的行为过程也是决策,可以用“如果那么”的结构进行分析。其他复杂的权力行使,如法官或行政官员的裁决活动,完全就是一个决策或判断的过程。显然,算法类似于这里的决策。算法在广义上指人们解决问题的方式和方法,即人们在生产生活中推理或计算的方法。维特根斯坦举了一个例子,假如派某人去买东西,给他一张纸条写着“五个红色的苹果”。他带着这张纸条来到水果店,店员打开装有苹果的抽屉,然后寻找红色的苹果,最后一个一个地把苹果拿出来交给来人。维特根斯坦说,人们无疑是以这样的方式以及类似的方式用语词进行运算的。所以,尤瓦尔赫拉利说在满是行人的大街上开车,我们得判断会不会有孩子突然跑到马路中间;

17、那个穿着西装的人从我这借到钱,我得考虑他是不是马上就会消失?那位律师的威胁是认真的,还是只想吓唬我?等诸如此类都是人类的一种生物算法。甚至也可以说,生物控制的算法描述了细胞如何将 DNA(脱氧核糖核酸)转录为 RNA(核糖核酸),然后生成蛋白质。而今天被人们热议的算法,作为“一种有限、确定、有效的并适合用计算机程序来实现的解决问题的方法”,区别无非就是用计算机替代人类的大脑而已。大卫亨利和伊莎佛得曼举了一个通俗的例子,厨房中的配料、烘烤器具、面包师都可以看成是“硬件”,面包师在头脑中思考如何将配料搭配制作成蛋糕,如果用计算机把面包师头脑中的思考编写成程序,这就是算法。所以,尽管算法看上去与权力

18、有很多相似性,比如算法指向特定问题的解决,类似于个体主义范式强调权力的功能;全自动的算法也类似于生物控制的算法,让人们无从选择;但是,在权力理论框架下,从权力和算法的实在论角度,无论如何,算法明显不是权力。在算法与权力之间取得联系,唯有通过权力行使的决策过程。三、在算法应用场景中理解权力 不过,肯定“算法权力”概念的观点恰好不是从对象实在论角度,而是从算法的应用场景或条件,基于系统的观点将算法看成社会技术集合中的一个元素或算法运行系统的一部分。并且,肯定论者通常认为,算法是在应用场景中生成的一种新型权力。在逻辑上,的确可能存在这样的情况:算法在041 西南政法大学学报 2023 年第 4 期丹

19、尼斯朗将武力、操纵、说服、权威都作为权力的形式,权威又分为强制性权力、诱导性权威、合法权威、合格权威、个人权威。但他又明确区分强制性权威和实际性的强制。所以,如果从权力与权力行使相区分的角度,可以认为他列举的权力行使方式其实包括四种。参见:美丹尼斯朗:权力论,陆震纶、郑明哲译,中国社会科学出版社 2001 年版,第二、三章。参见德维特根斯坦:维特根斯坦文集(第 4 卷),韩林合译,商务印书馆 2019 年版,第 8 页。参见以色列尤瓦尔赫拉利:今日简史,林俊宏译,中信出版社 2018 年版,第 19 页。See Peter J Denning,Computing is a natural sc

20、ience,50 Communications of the ACM 13,13-18(2007).美塞奇威克韦恩:算法(第 4 版),谢路云译,人民邮电出版社 2012 年版,第 1 页。参见英大卫亨利伊莎佛得曼:算法学,霍红卫译,高等教育出版社 2007 年版,第 4 页。参见谭九生、范晓韵:“算法权力”的异议与证成,载北京行政学院学报2021 年第 6 期,第 11-21 页。代表性文献如陈鹏:算法的权力:应用与规制,载浙江社会科学2019 年第 4 期,第 52-58 页;汝绪华:算法政治:风险、发生逻辑与治理,载厦门大学学报(哲学社会科学版)2018 年第 6 期,第 27-38 页

21、;王聪:“共同善”维度下的算法规制,载法学2019 年第 12期,第 66-77 页。传统权力理论中不符合权力认识论的特征,却正是因为它是新型的权力。商讨与对话需要共同的话语平台,所以,我们必须就算法的实践应用能否生成一种新型的权力,进行重点讨论。(一)算法应用场景缺乏新的权力生成基础上文将权力界定为社会关系中产生预期影响的能力,社会关系可以分为平等和不平等两类,前者为权力分析的集体主义范式所强调;相反,个体主义范式强调权力关系的不平等性。然而,不论平等还是不平等的社会关系,都不构成一种新的“算法权力”的生成基础。将平等社会关系视为权力生成的基础,对道德舆论、法律规范等集体性权力具有较强的解释

22、力。作为一种集体资源,这种权力源于最广泛意义上的规则。如有学者所说,场合、规则和意义空间构成社会宏观结构的三要素,出现一个“场合”就有与之共存的规则。任何人只要存在于某个场合内,就不得不承认规则,也就承认了规则存在的事实。规则的自我承认意味着规则的实效,共同承认则是实效的最终保证。所以,算法如果因为它的应用而形成一种新型的权力,算法必然本身就是规则。在算法与权力的研究文献中,的确有这种论证思路,如有学者从学习算法的角度,得出某种规则因其“不学习”而导致被算法取代走向消亡。但是,这种思路至少有两个明显的不足:首先,算法规则完全不同于人类服从的法律规则。算法有代码规则,人们依据代码规则用专门的语言

23、编写程序,但程序负载的算法本身和编程语言无关。相反,法律规则(包括人类所有社会规则)都是语言沟通的产物。并且,从法律的全面性和至高无上性两个方面,算法也不可能是法律,更不可能取代法律。其次,算法对人们的“约束”不仅因为算法的运行过程,更因为算法输出的结果。算法一经编写好投入运行,无论是程序员还是“算法主体”和“算法对象”都无法参与或控制计算的过程,不管人们是否愿意,都要受到算法结果的约束。也就是说,主张算法就是规则,根本上是违背平等社会关系这一基础的。那么,是不是正好在不平等社会关系的基础上产生“算法权力”呢?“算法权力”的肯定论者显然采纳了这种论证思路。如认为,算法在赋能过程中权力的增量大于

24、权利的增量,在不对称与失衡的“权利-权力”关系中,一个围绕“算法权力”的新型社会关系随之塑造而成。可是,这种思路至少有两个方面的缺陷:首先,从权力的量的变化推导出一种“不同质”的新型权力生成,理由是不充分的。其次,不平等社会关系仅体现在权力行使的过程中。丹尼斯朗将不对称性作为权力的性质,但他不赞同绝对化。他将不对称性界定为“掌权者对权力对象的行为实施较大的控制”,但是,影响是相互的 社会关系本身的定义准则从来没有完全被破坏,如果把权力关系看作只有等级关系和单边关系,就忽视了人们之间或群体之间的全部关系。事实上,权力本身是一种普遍的社会存在,人们始终处在道德舆论、法律规则及政府权力等各种类型的权

25、力之下,但我们不能据此就断然认定这是一个不平等的社会。所以说,不平等或不对称的社会关系并非产生权力的基础,而只是权力行使所形成的环境或条件。(二)权力通过算法行使得到强化既然如此,人们又为何现实地感觉到算法应用带来的权力“压力感”呢?理论认识不能纯粹依赖感觉,也不能仅仅停留在感觉之上。对此,上文援引的文献给出了部分答案,即权力因为算法而“增141欧阳恩钱:算法权力之否定参见美塞奇威克,韦恩:算法(第 4 版),谢路云译,人民邮电出版社 2012 年版,第 1 页。参见陈景辉:人工智能的法律挑战:应该从哪里开始?,载比较法研究2018 年第 5 期,第 136-148 页。参见周辉:算法权力及其

26、规制,载法制与社会发展2019 年第 6 期,113-126 页。参见美丹尼斯朗:权力论,陆震纶、郑明哲译,中国社会科学出版社 2001 年版,第 10-11 页。量”,不过文章随即不恰当地将这种增量的权力认为是“算法权力”。也有学者从法治政府建设角度指出“数治”提升了政府权力的效能,不过没有具体展开。国外的学者也提出过类似的观点,如尼古拉斯迪亚科普洛斯认为算法决策放大了商业和公共领域的权力,并将政治透明性作为应对的策略。然而,对对算法如何放大了权力也没有进一步说明。权力的“增量”或放大也即权力的强化,而权力的强化通过其属性变化体现。迈克尔曼将广泛性和深入性作为权力的两个基本属性,前者指权力作

27、用的范围以及对象数量;后者指权力的“穿透力”,即动员或使权力对象承担义务的能力。丹尼斯朗借鉴贝特朗德儒旺纳尔(Bertrand de Jouvenel)将广延性、综合性和强度作为权力的三个属性:广延性指遵从掌权者命令的对象数量;综合性指掌权者控制权力对象活动领域的数量;强度指掌权者行使权力控制对象时可选择手段的限度。显然,迈克尔曼说的广泛性和深入性与丹尼斯朗说的广延性和综合性大体类似,所以,总体上可以认为权力的属性就包括广延性、综合性和强度。权力通过算法行使正是从这三个方面得到强化。首先,算法以互联网、大数据为基础,极大地拓展了权力作用的对象数量。需要提及的是算法和互联网、大数据结合作为一种资

28、源,并非“算法权力”肯定论者所认为的那样,因之生成“算法权力”并使之具有资源权力属性,体现为弥散性权力。弥散性权力对应于强制性权力。迈克尔曼借用军事学中的“后勤”(logistics)概念,认为强制性权力需要一个后勤基础,弥散性权力需要一个普遍的基础结构。这也就是说,弥散性权力和资源并无直接关联,资源对于强制性权力也仅影响它的量与度。经济性权力和资源密切相关,但产生于需要体系的经济性权力,也只有在资源的垄断与支配相结合时,才有权力的产生。所以,资源对于经济性权力本质上也只是影响权力的量与度。算法与互联网、大数据的结合主要也是起到这种作用。其次,算法本身的特点使得权力的综合性得到拓展。算法具有可

29、重复性、精确性和有效性三个特征。可重复性直接建立在算法的规模应用基础之上,只有存在大量的同类问题有待处理,才有必要应用算法。精确性和有效性则以数据的规模为基础,比如,学习算法就必须在海量的数据中反复训练才能不断优化。凯西奥尼尔列举了正反两个例子:一个是 2007 年华盛顿特区推出 IMPACT 教师评估系统,由于数据样本太少,导致学生和家长都认为优秀的教师被系统评为最低分。相反,棒球模型建立在所有比赛的海量数据之上,被普遍认为是一个好的模型。我国在公共治理中充分认识到数据规模的重要性,2021 年国务院审议通过“十四五”推进国家政务信息化规划,提出要加快建设数字政府,提升政务服务水平,打破地方

30、和部门信息孤岛,以构建大系统为导向,深化共建共用共享。如此,权力通过算法行使也就必然能够拓展它的作用领域与范围。最后,算法的应用使权力的强度得到反向强化。权力的强度也即权力的边界,贾斯蒂斯霍姆斯241 西南政法大学学报 2023 年第 4 期参见王锡锌:法治政府建设的“数治”与“法治”,载澎湃号,http:/www.thepaper cn./newDetail-forward-19778924,2023 年 4 月 1日访问。See Nicholas Diakopoulos,Algorithmic Accountability:Journalistic Investigation of Com

31、putational Power Structures,3 Digital Journalism 398,398-415(2015).参见英迈克尔曼:社会权力的来源(第 1 卷),刘北成、李少军译,上海世纪出版集团 2015 年版,第 10 页。参见美丹尼斯朗:权力论,陆震纶、郑明哲译,中国社会科学出版社 2001 年版,第 15 页。参见肖冬梅:“后真相”背后的算法权力及其公法规制路径,载行政法学研究2020 年第 4 期,第 3-17 页。参见英迈克尔曼:社会权力的来源(第 1 卷),上海世纪出版集团 2015 年版,第 13 页。参见美凯西奥尼尔:算法霸权,马青玲译,中信出版集团 201

32、8 年版,第-、17 页。(Justice Holmes)例举了一个例子,他提出:假如把一杯啤酒的价格涨四分之一便士,德国有些地方就会发生抵触,那么,四分之一便士就是酒店老板定价权的边界。权力关系是相互的,反过来,如果没有抵制的“权力”,也就意味着酒店老板的定价权不受限制。算法的应用对于算法主体同样意味着约束,比如,政府的财政预算如果用算法执行,政府就只能静静等待算法输出结果。但是,算法对于权力对象意味着完全没有选择,任何反驳都没有可能。从此角度,也就可以认为,算法其实从反面增强了权力的强度。算法的应用从广延性、综合性和强度三个方面强化了权力。并且,就权力的传统行使方式而言,由于资源的约束,广

33、延性总是和其他两个特性存在张力,权力要控制相当多数量的对象,在综合性和强度方面就会受到影响,进而会削弱权力本身。然而,权力通过算法行使消解了这种张力。算法须以互联网、大数据为基础,而网络基本特点就是随着用户增多,边际成本递减。由此,也使得权力进一步得到强化。(三)算法使权力的潜在性和现实性之间的界限模糊算法应用带给人们的权力“压力感”,既包括个别的具体“压力感”,也包括普遍的抽象“压力感”。权力的强化明显只能解释前者,算法应用带给人们的主要是普遍的抽象“压力感”。有学者认为,过度依赖算法决策系统和将人数据化违背了人是目的这一道德哲学伦理要求,削弱了人的主体性。档案管理也有着悠久的历史,它本质上

34、就是对个人信息的记录、存储和处理,但我们并没有感觉到那种持续的压力。那么,为何算法的应用却带给我们完全不同的感受呢?可以设想,算法在放大权力的同时,必定还对权力有着其他方面的改变,笔者认为,这种改变就是模糊了权力的潜在性和现实性。前文指出一般权力概念中的“能力”和“影响”都有潜在性和现实性两个方面含义,“能力”的潜在性和现实性是“鸡”和“蛋”的悖论,“去悖”的思维是人们的“确信”。“影响”的潜在性和现实性是相互参照的结果,任何权力本身都以意义的形式存在,因而,意义的理解就可以认为对人们内在产生了影响,但相对于权力旨在现实支配人们的行为而言,这种内在影响就是潜在的。“压力感”生成于人们内在观念和

35、权力的预期不一致。算法替代权力行使中人类的决策,遵循严格的形式逻辑,不仅快速准确,而且能够避免人类因为各种疏忽或情绪引起的错误。从此角度观察,权力通过算法行使实现了权力预期的精准表达。算法本身当然不同于权力要素的“力量”,但这种精准性和权力的“力量”结合时,权力的潜在性几乎相当于现实性。四、算法的法律回应:目的主义的控制路径 (一)算法与权力的关系厘清:作为手段的算法与权力的目的相结合综上所述,算法不论从对象实在论角度,还是从认识条件的关系论角度,都不是权力,不是一种新型的权力。算法只是对人类决策的替代,它和权力结合不仅使权力变得更强大,也使权力的潜在性与现实性模糊。而这种引起权力变化的替代,

36、在权力理论框架之下,根源就在于作为手段的算法与权力的目的相结合。341欧阳恩钱:算法权力之否定See Mark DeWoftHowe ed.,Holmes-Laski Letter,vol.,Harvard University Press,1953,p.8.参见洪丹娜:法歧视的宪法价值调适:基于人的尊严,载政治与法律2020 年第 8 期,第 27-37 页。斯宾诺莎说,人们都有一种欲望要追求对自己有利的东西的天性。不过,斯宾诺莎这里的“目的”显然指外在于人类实践的目的。亚里士多德为探究事物的“原因”而提出“四因说”,其中的“目的因”指“何所由”或“终态”,如果用通俗的语言表达也就是事物发展

37、演变的最终样态,即事物本身。亚里士多德进而将“万物皆有因”推及人类的实践,认为良好的实践本身就是目的。亚里士多德的“目的因”饱受后来者的批评,尤其他认为自然物也有“目的”,被斯宾诺莎尖锐地批评为“以已度物”。权力源于人类有组织社会生活的需要,但它从来不是人类社会的目的,而只是手段,当它相对于目的而言是强有力的手段时,它就应运而生了。不过,权力(行使)显然也是人类重要的社会实践,本身也是目的。权力的个体主义分析范式通常把这里的“预期”称为权力的“有意性”,指权力关系参与者预料或者预见的一切后果,如丹尼斯朗认为,将有意影响与非有意影响相区分,把“权力”一词限于施加有意影响,并不会削弱权力在历史和社

38、会中的重要性与普遍性。强调权力的“有意性”当然是正确的,不过,他们没有认识到就权力的“影响”本身而言,“有意性”是权力存在的条件。也就是说,不仅权力的内在目的与外在目的能够清楚区分,并且,权力的内在目的在“力量”的保证下通常能够实现,而外在目的则有落空的可能。算法是人类解决问题的手段,那种认为学习算法能够自我改进最终摆脱人类的控制,形成机器的自主意识,或许只是科幻电影的遐想,或者因从根本上颠覆主体性哲学基础而失去了讨论的意义。由于算法本身的特点,当人类运用算法的目的旨在它本身 纯粹的计算时,将是确定的和现实的。不过,对于实践活动而言,纯粹的计算是没有意义的。我们计算的目的总是为了将结果作为他用

39、。换言之,算法总是人类追求外在目的的手段。如此,算法与权力的相结合或者是与权力的内在目的相结合,或者是与权力的外在目的相结合。前者如同自然界作用于同一作用点,同一方向两个“力”叠加,显著提升了权力的效能;后者由于权力的外在目的实现具有不确定性,如果不能实现则会加剧或加快对目的的偏离,如果能实现,但目的不正当。权力的外在目的就是以内在目的作为手段的目的,所以,前者始终是基础性的。算法所带来的影响需要同时考虑上述两个方面,相应地,我们如何应对的思路也就清晰了。(二)目的主义法律控制的具体方案“目的主义”对应“行为主义”。“算法权力”肯定论者无论是主张以权利制约权力,还是主张以权力制约权力,都是一种

40、侧重权力行使和算法应用的行为视角。“控制”兼有“治理”的意思。所以,“目的主义”本身必然要求实施“控制”,“控制”也有着适应算法时代的含义,它不是谋求限制或禁止算法的应用,而是将算法的应用纳入目的控制的范围,既保障算法发挥它的正面效应,如提升治理能力、给人们的生产生活带来便利,也控制它带来的风险。如学者所言,理性地应对技术进步带来的挑战。具体而言,可以从以下两方面着手:首先,针对算法与权力内在目的结合带来的“压力感”,可以采取以下措施:一是通过控制算法的应用范围,抑制“压力感”的普遍性;二是发展权力的沟通机制,缓和或消解算法有限应用下的“压力感”。“压力感”不是一个正常的社会需求,尤其是普遍抽

41、象的“压力感”更是社会的非正常状态,而控制算法的应用范围显然是首要的和直接的应对方法。有学者从反算法歧视角度,主张在特定重大领域441 西南政法大学学报 2023 年第 4 期参见荷兰斯宾诺莎:伦理学,贺麟译,商务印书馆 1997 年版,第 37 页。参见古希腊亚里士多德:亚里士多德全集(第 8 卷),苗力田译,中国人民大学出版社 1992 年版,第 125 页。参见美丹尼斯朗:权力论,陆震纶、郑明哲译,中国社会科学出版社 2001 年版,第 5 页。参见朱艺浩:人工智能法律人格论批判及理性应对,载法学杂志2020 年第 3 期,第 132-140 页。审慎使用算法决策系统。尽管该观点总体上符

42、合目的主义的控制思路,不过,将“特定重大领域”指向关系公民重大切身利益的领域则是不恰当的。无论是算法的商业领域应用还是公共领域应用,都关系公民的重大切身利益。但是,就公共服务中运用算法而言,显然带给人们的主要是便利。在政府行政领域,如运用算法进行环境监管监测、查处交通违法等也是提高政府行政能力的必要举措。所以,笔者认为,控制算法的应用范围,指从权力的内在目的 “影响”或“支配”的角度审慎使用算法决策。换言之,仅对那些需要运用权力影响或支配人们行为的领域考虑限制算法的应用。并在此基础上,权力沟通可望在最大限度上缓解“压力感”。有学者以公共领域的算法应用为例,指出传统的行政程序,诸如“听取意见”“

43、说明理由”等权利保障措施,在自动化机器面前几无适用的余地,从而主张,对决策结果应允许质疑,在专业人员协助下审查算法,有错误及时修正。显然,这也是着眼于权力的沟通。广义上权力沟通还包括算法解释。不过,鉴于前文提到的算法解释存在的固有缺陷,笔者认为,权力沟通除了及时纠错之外,最主要的是对权力内在目的合理性解释。这种解释在传统社会的权力行使中也是重要的,但算法时代更凸显它的必要性。如果权力的“影响”或“支配”本身能够得到人们的认同,“压力感”自然会得到缓和或消解。在我国现行立法中,无论是对算法应用范围控制还是对权力内在目的合理性的解释,都可以看到相关的规定,如中华人民共和国个人信息保护法(以下简称个

44、人信息保护法)第 34 条规定“国家机关处理个人信息不得超出履行法定职责所必需的范围和限度”,第 17条规定“个人信息处理者应告知处理目的”,第 35 条规定了国家机关为履行法定职责处理个人信息同样负有告知义务。地方立法中也有体现,如福建省大数据发展条例第 14 条规定“公共管理和服务机构获取的数据应当用于本部门履行职责需要”,黑龙江省促进大数据发展应用条例第 22 条也作出类似规定。从总体上而言,现行立法还是没有充分认识到算法和权力结合的特殊性,比如,将目的限定在履行法定职责范围明显是宽泛的,告知目的和解释合理性也不完全相同。一般而言,权力通过算法行使作用于人本身和作用于人支配的物,所产生的

45、“压力感”是不同的。比如,如果对行人的一举一动进行智能监视,相比于交通违法的自动监视,就会给人们带来更多的“压力感”。所以,控制算法的应用范围应该主要是针对那些直接作用于人本身的场景,此时,立法通过设置公开审查程序,保障充分的公众参与,限定算法应用于客观上确有必要、主观上对其应用合理性得到广泛认同的领域。其次,针对算法与权力外在目的相结合引起的问题,一是依据“目的-工具理性”注重手段的可调整性,二是对外在目的本身的控制。算法与权力外在目的相结合,是典型的依据“目的-工具理性”构建的体系。不过,韦伯对工具理性的青睐,在于它在技术上的可计算性,因而是一种客观的合理性。换言之,“目的-工具理性”并不

46、能保证合目的性。注重手段的调整,包括及时调整算法技术,或者及时改用人工决策,必然是工具理性的要求。对外在目的本身的控制包括对目的设置不当的纠正,也包括对非正当目的的排除。外在目的指人们通过权力所追求的目的,如前文援引帕森斯所认为的那样,权力作为“一般化手段”可以追求的目的。目的设置不恰当自然会导致落空。在我国现行立法中,国家层面立法对外在目的本身的控制主要体现为对目的合理性的要求,如个人信息保护法第 6 条规定:“处理个人信息应当具有明确、合理的目的,并应当与处理目的直接相关”。地方立法则大都在将算法的应用限定在公共机构职责范围内的同时,附加强调“不得用于其他目的”,如福建省大数据发展条541

47、欧阳恩钱:算法权力之否定参见洪丹娜:算法歧视的宪法价值调适:基于人的尊严,载政治与法律2020 年第 8 期,第 27-37 页。参见刘东亮:技术性正当程序:人工智能时代程序法和算法的双重变奏,载比较法研究 2020 年第 5 期,第 64-79 页。参见德马克斯韦伯:经济与社会,林荣远译,商务印书馆 1997 年版,第 106 页。例第 11 条、黑龙江省促进大数据发展应用条例第 22 条、吉林省促进大数据发展应用条例第 16条、辽宁省大数据发展条例第 18 条、河北省数字经济促进条例第 21 条等都采用这种表述方式。相比之下,上述相关地方立法虽然存在“需求识别与精准供给”的问题,但它们对目

48、的控制的规定,是值得肯定的。地方立法明确排除职责范围之外的目的用途,不仅否定了利用算法追求其他目的的合理性,也有利于外在目的控制与内在目的控制之间的协调。五、结语 算法与权力是一个复杂的问题,正如艾伦雷普克说的,对复杂问题产生合乎逻辑的认识以及解决复杂问题,任何单门学科都难以胜任。因此,统一的学理叙事和“一揽子”的解决方案很可能是挂一漏万的。当然,算法只有和权力结合才能给人们带来巨大影响,而算法和公共权力的结合显然影响更为深远和广泛。所以,本文虽然从一般权力概念出发,在整体性的权力理论框架下展开议题的讨论,但侧重于政府权力通过算法行使所带来的问题。当前,我国从国家政策文件到“先行先试”而促进数

49、字经济发展或大数据应用的地方性立法,都提倡政府采用大数据、人工智能提升履职能力,充分考虑它带来的问题并且完善应对措施,无疑也是现实中最需要的。JSThe repudiation of Algorithmic PowerOUANG Enqian (School of Political Science and Law,Jiangxi Normal University,Nanchang 330022,China)Abstract:The affirmation theory of algorithmic power is equivalent to the condition of hangin

50、g ob-jects and focusing on cognition in terms of cognitive thinking,but it is not the understanding of the algo-rithm itself.From an object-realist perspective,power is the ability to produce the desired effect in social relations;Algorithms broadly refer to the way and method people solve problems.

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服