收藏 分销(赏)

自动化行政合法性证成的基本逻辑_陈锦波.pdf

上传人:自信****多点 文档编号:609023 上传时间:2024-01-13 格式:PDF 页数:13 大小:436.58KB
下载 相关 举报
自动化行政合法性证成的基本逻辑_陈锦波.pdf_第1页
第1页 / 共13页
自动化行政合法性证成的基本逻辑_陈锦波.pdf_第2页
第2页 / 共13页
自动化行政合法性证成的基本逻辑_陈锦波.pdf_第3页
第3页 / 共13页
亲,该文档总共13页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、收稿日期:20230315基金项目:本文系北京市教育科学“十四五”规划 2021 年度青年专项课题北京高校“非升即走”聘用制改革的公法建构研究(BFCA21118)和中国政法大学青年教师学术创新团队课题 行政法典立法研究(21CXTD07)的阶段性成果。作者简介:陈锦波(1989),男,福建福州人,法学博士,中国政法大学诉讼法学研究院副教授、人民法院司法改革研究基地(中国政法大学)研究员,硕士生导师,主要研究方向:行政法与行政诉讼法、网络法。参见德哈特穆特毛雷尔:行政法学总论,高家伟译,法律出版社 2000 年版,第 442 页。参见马颜昕:自动化行政的分级与法律控制变革,载 行政法学研究 2

2、019 年第 1 期。近年来,广东、广西、安徽等地方政府开始采行“无人干预自动审批”(又称“秒批”)。以深圳市为例,深圳 2018 年开始针对高校应届毕业生引进和落户事项使用“无人干预自动审批”这种新型审批方式:申请人只要在线上而无需到现场提交材料,如果申请人提交的材料准确、齐全,机器系统将完成自动化审批,其中不会有人工介入。参见 深圳市人民政府办公厅关于印发深圳市普通高校应届毕业生引进和落户“秒批”(无人干预自动审批)工作方案的通知(深府办函 2018 109 号)。据笔者了解,车站、机场、酒店等公共场所均是基于公安部门的要求而安装人脸识别系统,其目的主要在于维护公共安全。上海关于此问题已经

3、出现了相关案例,具体可参见上海市第一中级人民法院(2018)沪 01 行初 216 号行政判决书。机器学习算法与一般的算法有所不同,它是机器系统通过深度学习外界“投喂”给它的数据,而对问题解决方案作出科学推演和精准预测的一类新型算法。从本质上说,机器学习算法是人工智能的核心,它以大数据为支撑,以实现科学预测和问题解决为功能导向。具体可参见何清等:大数据下的机器学习算法综述,载 模式识别与人工智能 2014 年第 4 期;陶盈:机器学习的法律审视,载 法学杂志 2018 年第 9 期;崔聪聪、许智鑫:机器学习算法的法律规制,载 上海交通大学学报(哲学社会科学版)2020 年第 2 期。自动化行政

4、合法性证成的基本逻辑自动化行政合法性证成的基本逻辑陈锦波(中国政法大学 诉讼法学研究院,北京 100088)摘要:自动化行政是行政机关借助自动化设备作出行政行为的情形,其本质是以机器学习算法为核心的人工智能技术对行政活动的参与。由于机器学习算法可以自我学习、具有黑箱特性且可能缩短甚至直接绕过人类来思考,所以它在直接或辅助行政机关作出行政决定时会对行政法治统合下的课责和监督机制形成一定挑战。即便如此,自动化行政本身的合法性仍然可以被有效证成。一方面,机器学习算法对行政决定作出过程的参与,不会在根本上冲击最能彰显行政法治的“依法行政原则”和“正当行政程序原则”,这使得自动化行政具备了形式上的合法性

5、。另一方面,机器学习算法还有助于实现“最佳行政”之目标,从而增进国家的良善治理,这可以在更深层次证立自动化行政的实质合法性。关键词:自动化行政;机器学习算法;依法行政;正当行政程序;最佳行政;形式合法性;实质合法性中图分类号:D9121文献标志码:A文章编号:10098003(2023)03005013一、问题的提出与研究的进路自动化行政是行政机关借助自动化设备作出行政行为、行政程序中的特定环节或全部环节由人工智能代为处理,从而实现行政活动部分或完全无人化操作的情形。自动化行政现象在现实中已经多有发生。譬如,人力资源保障部门运用机器系统进行自动化行政审批,公安部门通过公共场所的人脸识别系统来辅

6、助维持社会秩序,交警部门借助声纳定位系统来判定行驶车辆是否构成交通违法等。当前的自动化行政,其有效运作在很大程度上依赖于设备自身所内嵌的机器学习算法。然而,由052023 年 5 月第 3 期(第 38 卷,总第 207 期)法 学 论 坛LegalForumMay,2023No3(Vol38,SerNo207)于机器学习算法可以自我学习、具有黑箱特性并且可能缩短甚至直接绕过人类来思考,因此机器学习算法在进行行政决定时可能会招致系列质疑。首先,在进行行政决定时,机器是否已经获得了立法机关的有效授权?其次,即使机器此时确实因获得法律授权而参与行政决定的作出,那么立法机关将公权授予非真人之机器的做

7、法是否妥当?最后,机器学习算法的高速自动化运行及其黑箱特性,又是否会导致相对人原本所享有的程序性权利被克减?其实,公众的上述质疑归根结底是他们担心机器学习算法在公共决策领域的运用,会导致机器学习所造就的“算法社会”猝然演变为“黑箱社会”,从而使得行政法治统合下的课责和监督机制落空。质言之,公众认为自动化行政面临着合法性困境。那么,学界对这一问题如何认识?从有关自动化行政的既有研究成果来看,学者们或者是概括性地讨论自动化行政所面临的法律风险及其应对举措,或者是对自动化行政的具体应用领域加以探究。然而,学界当前对“自动化行政是否合法”这一本源问题的理论关照却较为缺乏。只有个别学者从宪法视角审视了自

8、动化行政的权力正当性可能,绝大多数学者似乎理所当然的将该问题当成了讨论的前提。而且,即便是在“自动化行政是否合法”的有限讨论中,该学者也更多是将研究集中于对自动化行政在实体权力来源正当性的阐述上,而对自动化行政在程序方面所可能遭受的正当性冲击较少涉及,更没有对本文以下将论及的“最佳行政”视角加以探讨。这使得该讨论缺乏一个整全性的视域。有鉴于此,本文将尝试对“自动化行政的合法性”这一基础课题展开认真且系统地思考。对于这一问题,笔者的基本立场是:自动化行政不会从根本上冲击行政法治。本文的目标即在于证成这一立场。笔者首先将会从最能彰显行政法治的“依法行政原则”和“正当行政程序原则”入手,来证成自动化

9、行政在形式层面的合法性。然后,笔者将会从行政自动化有助于“最佳行政”目标之实现,来进一步证立自动化行政在实质层面的合法性。二、自动化行政践行依法行政原则的可能路径依法行政原则是我国行政法上的一项基本原则。它的最基本含义,是要求行政机关的行政行为要严格依照法律来行使、受法的约束。?10依法行政原则包括法律创制、法律优先和法律保留等三项子原则。?11其中的“法律创制”,意指法律对行政权的产生和运作具有决定性的拘束力,行政机关不得逾越法律而行为。?12可见,获得法律的正式授权,是行政机关行使公权的最基本前提。那么,行政机关在运用机器学习算法进行行政决定时,是否遵循了依法行政原则的这一要求?对此,如果

10、要作出肯定回答,则大致存在两条解释路径:其一,机器学习算法在参与行政决定的作出时,获得了依法享有公权力的行政15陈锦波:自动化行政合法性证成的基本逻辑?10?11?12参见 Cary Cogliance David Lehr,egulating by obot:Administrative Decision Making in the MachineLearning Era,105 Georgetown LawJournal 1167(2017)因为在公法领域,对于公权行使机关来说,“法无授权不可为”。因为传统行政法理论所谓的“立法授权”,只是将权力授予具有生命体征的“真人”而非机器。在美国联

11、邦最高法院的大法官们看来,即使是将公权授予私人,也是“最令人厌恶的立法授权”。参见 Carter v Carter Coal Company,298 US 238,311(1936);Association ofAmerican ailroads v United States Department of Transportation,135 S Ct 1225,1231(2015)机器学习算法的高速自动化运行,意味着行政机关在作出行政决定时原本应当历经的诸多程序将被省略,以致行政相对人参与其中的机会大大减少。此外,机器学习算法的黑箱特性,又决定了有些行政决定的作出将难以解释且难以预测。参见刘

12、静怡:资讯法律的过去、现在与未来,载 月旦法学杂志 2020 年第 5 期。参见查云飞:人工智能时代全自动具体行政行为研究,载 比较法研究 2018 年第 5 期;马颜昕:自动化行政的分级与法律控制变革,载 行政法学研究 2019 年第 1 期;胡敏洁:自动化行政的法律控制,载 行政法学研究 2019 年第 2 期。参见查云飞:健康码:个人疫情风险的自动化评级与利用,载 浙江学刊 2020 年第 3 期;马颜昕:自动化行政方式下的行政处罚:挑战与回应,载 政治与法律 2020 年第 4 期。参见展鹏贺:数字化行政方式的权力正当性检视,载 中国法学 2021 年第 3 期。之所以选择行政法上的这

13、两项原则作为切入点来论证自动化行政在形式层面的合法性,主要是基于以下两方面的考量:其一,行政法学界对于哪些原则属于行政法上的基本原则还存在争议,但至少在上述两项原则上已达成共识;其二,上述两项原则分别属于行政法的实体和程序领域,从实体和程序双层面来论证自动化行政的合法性会更加周全。参见应松年主编:行政法与行政诉讼法学,高等教育出版社 2017 年版,第 36 页;姜明安主编:行政法与行政诉讼法,北京大学出版社、高等教育出版社 2015 年版,第 67 页。参见 德奥拓迈耶:德国行政法,刘飞译,商务印书馆 2013 年版,第 6871 页。参见王贵松:依法律行政原理的移植与嬗变,载 法学研究 2

14、015 年第 2 期。机关的合法转授权。也就是说,法律将相关权力授予了行政机关,并且准许行政机关将该权力转授给机器。其二,法律对机器直接予以了授权。易言之,法律此时直接将相关行政权力授予机器,允许机器依据该职权进行行政决定。(一)行政机关转授公权给机器的禁止根据依法行政原则,行政机关可以在法律明确授予的权力类型和权力范围内从事相关的公共行政活动。只是,这些公共行政活动中是否包括行政机关将从立法机关处获得的授权再次转授给机器,以使机器行使公权的行为合法化的情形?就我国的宪法权力架构而言,行政机关由立法机关产生,行政机关的行政职权来源于立法机关的授予。因此,行政机关要对立法机关负责,并受立法机关监

15、督。立法机关将行政权授予行政机关的目的,是期待行政机关能够依凭其专业上的优势,顺利完成行政任务,以保障社会的基本秩序并增进人民的福祉。而且,立法机关对行政机关的授权一般是以“划定一般政策、适用该政策的公共机构和该授权的界限”的方式进行。同时,从法院的视角来看,立法机关对行政机关的这种授权应当直接、明确且符合公共利益的需要。那么,允许行政机关将行政职权转授给机器的做法是否会偏离宪法配置各项国家权力的上述初衷?实际上,如果行政机关可以不断转授权力给第三方,作为原初授权主体的立法机关将无法对行政职权行使者进行充分的监督。进而,公权被俘获的可能性就将增大,公权行使者的公益立场和民主正当性基础也会因此而

16、被动摇。此外,对于隶属代议民主式国家体制的我国来说,行政机关作为立法机关的意志执行机关,也只能严格依照法律的具体规定来行使行政职权,而不得将从立法机关处获得的职权再行转让。而且,立法机关对行政机关的授权,实际上还暗含了民众对行政机关能够代表公益的基本信任。如果行政机关此时将享有的公共权力再行随意转让,也将违背公众的合理预期。总之,行政机关一般不得将自身依法获得的公共权力再行转让给机器。这意味着,机器因为获得行政机关的转授权而正当化自身之自动决策行为的可能性已经在事实上被消解。(二)法律直接授权机器作出行政决定的可能性既然获得立法机关授权的行政机关不得再将权力转授给机器,那么说明前述第一种解释路

17、径无法成立。那么,我们能否证立第二条解释进路?也即,立法机关是否以及能否对机器予以直接的授权?归根结底,探讨立法机关是否直接授权给机器,这首先是组织法应当解决的问题。质言之,此处要探究的是:机器是否成为了合法的公权行使主体?从我国宪法 全国人民代表大会组织法 国务院组织法 以及 地方各级人民代表大会及地方各级人民政府组织法 的条文规定来看,各法规范并未给机器可以行使行政职权提供相应的组织法依据。也即,立法机关并未对机器进行明确而具体的授权。易言之,现行有效的法规范,其指向的对象实际上只是具有生命体征之真人,而并没有把机器作为公权享有主体而纳入考量范畴。此时我们如果强行主张现有法规范已经对机器予

18、以了直接授权,并把机器作为公权的合法行使主体,显然过度偏离立法原意。简言之,从实然角度看,机器当前并未获得法律的直接授权。只是,在新的时代形势下,立法机关应否以及能否直接赋权机器以正当化机器作出行政决定的行为?大数据、人工智能都是信息时代的新兴产物,机器学习更是被认为是一种新型人工智能,因此以往制定的法规范没有将机器学习算法这一新技术纳入考量当属情有可原。但是,我们需要作进一步地反思:虽然从立法原意看,当初的立法者没有明确规定机器人可以成为合法的公权行使主体,但在新形势下是否就不可能对现行立法条文的内涵作适度的扩张?这实际上是有讨论余地的。笔者认为,在机器学习技术发展态势日益强劲的当下,法规范

19、体系应当给予机器学习算法以更大的作为空间,甚至直接25法学论坛2023 年第 3 期西方法治国家习惯将立法权、行政权和司法权分属给不同的国家机关,并称之为所谓的“三权分立”。我国宪制传统上有不同做法,强调各种公权力之间的分工、协作。参见 American Power Light Company v SEC,329 US 90,105(1946);Yakus v United States,321 US 414,424425(1944)参见 eg,National Broadcasting Company,Inc v United States,319 US 190,225226(1943)参见

20、 Ethem Alpaydin,Machine Learning:The New AI,MIT Press,2016,p128赋予其完全独立的作出行政决定的权力。首先,机器身为作出行政决定的法定主体并不存在理论层面的理解障碍。在法学理论中,“法人”作为一种法律上拟制的“人”已经被人们所广泛接受。“机器人”和“法人”同样不是具有生命体征的真人,既然“法人”可以作为法定的行为主体,那么我们就没有理由将“机器人”特别排除在外。也许有人会指出,“法人仍然是由 真人 组合而成,所以立法机关对 法人 的授权仍然属于对 人 的授权。”这种认识曲解了法人制度设立的目的。实际上,在立法上承认法人具有主体性,并不

21、是因为法人真的成为了具有生命体征和自由意志的人。相反,法人本身不可能具有精神意志,法人的主体性仅仅来自于法律的拟制。而对法人的这种法律拟制在本质上不取决于其组成部分是否是“真人”,而在于我们是否有这种现实需要。同理,立法机关基于时代情势的需要也可以对机器的主体性进行这种法律上的拟制,以赋予机器进行行政决定的权力。质言之,法律对机器进行行政决定的直接赋权也不存在理论层面的解释障碍。当然,需要说明的是,对于机器的定性,会影响到后续相应法律责任的承担。因为在大陆法系国家的行政赔偿制度中,公务员的违法侵权行为与公共设施设置和管理所导致的侵害,其侵权构成要件和救济程序并不完全相同。具体而言,如果我们将机

22、器系统视为类似于真人的“公务员”,那么相应侵权行为的成立将以机器的违法和有责为前提;但如果我们仅仅将机器系统视为一种“公共设施”,那么判定机器是否构成侵权则是以行政相对人的权益是否实际受损为要件。其实,机器系统本身的特点,决定了无论将机器严格地视为一类人或一种公共设施,都会面临适用上的诸多问题。因此,学界当前对于如何定性机器仍然存有争议。笔者认为,在现有条件下,将机器系统单独予以类型化,并确立相应的责任承担机制是较为稳妥的做法。其次,学界目前反对将机器作为法定授权主体的重要理由还在于:公众对法律授权由真人组成的私人部门进行行政决定的做法尚且有顾虑,更不用说让他们接受由法律直接赋权机器进行行政决

23、定的方案。然而,需要指出的是,机器相较于私人部门来说实际上更为可靠。这是因为私人对行政决定的介入常常掺杂有私人利益的考量以及个人的偏见,它将导致私人部门进行行政决定时可能会因过度维护私利而损及公益的实现。相反,由于机器学习算法此时是由公共部门来负责设计和植入,所以机器学习算法参与行政决定的作出就可以避免诸如私人部门进行行政决定时所面临的问题,进而保证所作行政决定的客观公正性。当然,机器进行行政决定,其结果的客观公正性建立在对“公共部门能够公正无偏私处理公共事务”的推定之基础上。观察政治运作现实可知,在大多数情况下,我们对公共部门的这种推定能够成立。而且,即使公共部门在少数情形中对公益初衷有所偏

24、离,民主国和法治国下的诸多监督机制也能对公共部门的该偏离行为进行有效矫正。这也是人民选择出让部分权力而交由公共部门来统一行使的最原初目的。质言之,只要公共部门秉持公益之目的而对机器设计和植入合理的算法和程序,机器基于此而作出的行政决定就能保证其客观公正性。而且,实践已经证明,由机器来进行行政决定还能极大提升行政机关的工作效能。所以,我们没有理由不顺应信息革命的时代趋势而去选择机器学习算法这种更为高效便捷的行政决定辅助手段。再次,就立法实务而言,全国人民代表大会在 2019 年、2021 年和 2022 年持续发布的第十三届全国人民代表大会第二次会议关于 2018 年国民经济和社会发展计划执行情

25、况与 2019 年国民经济和社会发展计划的决议 、第十三届全国人民代表大会第四次会议关于 2020 年国民经济和社会发展计划执行情况与 2021 年国民经济和社会发展计划的决议 和第十三届全国人民代表大会第五次会议关于35陈锦波:自动化行政合法性证成的基本逻辑这种认识也是历史上“法人否认说”的基本立场,但随着德国民法典等各国法典对法人制度的确立,“法人否认说”已经逐渐失去支持者。参见江平、龙卫球:法人本质及其基本构造研究,载 中国法学 1998 年第 3 期。参见陈新民:行政法学总论,三民书局 2015 年版,第 467、472 页。参见蔡志方:行政救济与行政法学(三),正典文化有限公司 20

26、04 年版,第 464 页。参见蔡志方:行政救济与行政法学(三),正典文化有限公司 2004 年版,第 464469 页。参见 Cary Cogliance David Lehr,egulating by obot:Administrative Decision Making in the MachineLearning Era,105 Georgetown LawJournal 1167(2017)2021 年国民经济和社会发展计划执行情况与 2022 年国民经济和社会发展计划的决议 都对“数字政府建设”作出了明确部署。此外,中共中央、国务院于 2021 年印发的法治政府建设实施纲要(202

27、12025)也明确指出要“全面建设数字法治政府”。可见,最高国家权力机关已经具有推动和加强数字政府建设(包括机器参与行政决定)的明确立法意图,党中央和国务院也对数字政府建设有了明确的战略部署。在此背景下,我们对组织法以及各单行法律法规中提及的各种“行政主体”之文义作目的论扩张,将“机器”囊括进各“行政主体”的概念范畴之中,这显然既贴合立法目的,又符合时代需求。最后,虽然我们承认法律授权机器进行行政决定的可能性,但法律对机器的授权模式并非不加择取。在授权模式的选择上,法律对机器的直接授权比行政机关对机器的转授权更为可行。这是因为,一方面,直接授权模式相较于转授权模式具有更夯实的民主正当性和公益性

28、基础。正如前述,要想作出合法的行政决定,机器必须如传统行政机关一样具备必要的民主正当性和公益性底蕴。这种民主性和公益性的获得,在形式上需要有法律的授权。而在转授权和直接授权这两种法律授权模式中,直接授权模式显然可以给予机器学习算法在做行政决定时以更强的民主和公益底色。另一方面,机器学习算法的特性,决定了直接授权模式更有利于国家通过法律加强对机器学习算法的监督。公众对机器决策并不完全信任,他们希望国家能够对机器学习算法施加必要的管控。而在法律对机器的两种授权模式中,转授权模式只能是由行政机关在机器进行行政决定时对机器学习算法进行事中监管,但由于机器学习算法具有自我学习特性、黑箱属性以及高速自动运

29、行的特征,这种事中监管将很难达至良好的效果,甚至这种事中监管都可能会让行政机关找寻不到合适的介入时机。相反,借助直接授权模式,由法律在机器参与行政决定的作出前就对机器植入相应的目标和要求显然更为可行。总之,虽然立法机关在当初制定相关法规范时还没有赋权机器的意图,但为顺应信息革命的时代趋势,在立法机关尚未着手修改相关法律前,可以先结合最高国家权力机关的决议 精神和党中央、国务院的战略部署,对原有立法条文的内涵作目的论扩张,从而给予机器学习算法以适当的法律授权,使得机器能够在一定空间内作出适切的行政决定。而当条件成熟时,立法机关则需要在各组织法和各单行法律法规中对机器的法律主体地位予以明确认可。此

30、外,在对机器权力授予模式的选择上,相较于转授权模式而言,立法机关对机器的直接授权更符合机器学习算法的本质特性。(三)机器作出行政决定的限度立法机关可以且应当对机器作出行政决定的行为予以法律授权,以推动政府治理体系和治理能力的现代化。但是,这并不意味着该法律授权不受任何约束。立法机关应当对授权机器进行行政决定的范围和方式作出必要限定。当然,这种范围和方式的具体限定进路应根据不同行政事项的不同特点和不同重要度来作进一步的区分。首先,对于羁束行政事项,机器学习算法可以依照法律的授权进行自主化的行政决定。这是因为羁束行政事项一般不涉及行政主体在行政决定中的自由裁量,只要相关事实被正常地涵射到法律所设定

31、的构成要件,那么得出的结果将是唯一的。也就是说,只要人们按照法律的确切规定对机器进行行政决定的相关要件做事先设定,那么不管是由机器还是由真人来做该行政决定,其结果都将是相同的。对于此类事项,行政官员显然没有必要亲力亲为。这在比较法上也有例可循。例如,根据德国联邦行政程序法 第 35a 条的规定,羁束行政事项即属于可以适用完全自动化的行政事项。当然,由于技术本身可能存在瑕疵,这将导致机器学习算法偏离预先设定的运行轨道。因此,在利害相关方提出,或者行政机关工作人员发现机器学习算法的决策结果具有明显错误时,行政机关应当负责矫正该错误结果。45法学论坛2023 年第 3 期目的论扩张,是指对过窄制定法

32、文义的必要性扩大和修正。参见德卡尔拉伦茨:法学方法论,黄家镇译,商务印书馆 2020 年版,第 499500 页。在最高国家权力机关当前已经具有推动数字化行政之立法意图,以及机器进行行政决定本身具有合理性和可行性的时代背景下,我们对现有组织法、各单行法律法规中涉及的相关行政主体概念之文义作适当扩张显然有其必要。虽然理论上认为自动化行政活动在羁束行政和裁量行政领域皆可适用,但学者们对自动化设备在裁量行政领域的适用一般都持较为谨慎的态度。参见查云飞:人工智能时代全自动具体行政行为研究,载 比较法研究 2018 年第 5 期;马颜昕:自动化行政的分级与法律控制变革,载 行政法学研究 2019 年第

33、1 期。35a VwVfG其次,对于裁量行政事项,行政机关应根据该事项的不同重要度而予以区别对待。总体而言,对于一般行政事项的裁量,法律可以直接授权机器来行使;但对于重要的行政裁量事项,法律还是要将该事项的最终判断权保留给行政机关工作人员。至于何为重要的行政裁量事项,“特别权力关系”领域的“重要性理论”也许可以给我们提供一个参照思路。“特别权力关系”中的“重要性理论”,它根据公权所涉公民权利的重要性程度来判断该公权是否应当接受司法审查。在“重要性理论”看来,凡是涉及公民基本权利的事项均为重要性事项。这种界定标准的优点在于,它可以最大限度地保护公民所享有的基本权利。但是,我们同时也会发现,按照这

34、种标准筛选出来的重要事项之范围将极为广泛。运用有限的司法资源来保护如此宽泛的社会事项,显然并非国家的最优制度选择。而且,在行政领域,保护公民权利也从来不是现代国家的唯一任务。实际上,行政机关在追求行政合法和公民权利保护的同时,还极为重视自身行政效能的提升。质言之,在将机器学习算法引入行政决定领域时,我们虽仍应强调该活动的合法律性,但为了同时彰显机器学习技术在提升行政机关工作效能方面的积极作用,对机器学习算法的规制显然不能过于严苛,否则技术之功效将消弭殆尽。因此,并非公民所有的基本权利都不能由机器来处置。我们在机器作出行政决定领域引入“重要性理论”时,应当对其中的重要事项之范围作进一步的限缩。那

35、么,公民的哪些基本权利可以被剔除出“重要事项”的范畴?结合学理和我国现行宪法的规定,我们大致可将公民的基本权利归纳为以下六类:(1)平等权;(2)政治权利;(3)精神自由;(4)人身自由和人格尊严;(5)社会经济权利;(6)获得权利救济的权利。宪法学界在讨论对上述基本权利的限制时,一般对限制公民的社会经济权利之做法较为包容,而对限制公民其他类型的基本权利更为谨慎。这主要是因为,相较于其他基本权利来说,经济性基本权利的可量化度以及受损后的可补偿性更高。因此,对经济性基本权利进行更多的限制更为可行且更容易为公众所接受。基于同样的考虑,在涉及机器学习算法对公民社会经济权利的裁量决策时,法律可以赋予机

36、器学习算法更大的作为空间。也即,法律可以授权机器对公民的社会经济权利事项进行裁量决策。最后,对于行政裁量领域中的重要性事项,法律不应当将之直接委诸于机器学习算法。也即,当需要对经济性基本权利以外的公民基本权作行政裁量时,法律仍然应当将该项职权保留给行政机关的工作人员来行使。当然,行政机关此时仍然可以借助机器学习算法来对相关行政决定的结果进行预测,以辅助和验证人为决定之结果的科学性与合理性。易言之,在行政机关对行政裁量的重要性事项进行决策时,机器学习算法并不最终决定相关行政决定,机器学习算法此时的功用仅仅在于增强人类的判断力。总之,自动化行政并不会对依法行政原则构成根本性的冲击,但这建立在法律对

37、机器予以必要授权的基础上。同时,在转授权和直接授权这两种法律授权模式中,直接授权模式更加符合机器学习算法的特性。当然,即便法律直接授权机器作出行政决定,这种授权在范围和方式上也仍然有其限度。具体来说,对于羁束行政事项和一般裁量行政事项,法律可以直接授权机器进行决策;但是,对于涉及公民社会经济权利以外的其他重要裁量行政事项,法律却不能将之委诸机器来处理,而应将处置该类事项之公权保留给行政官员。三、自动化行政对正当行政程序原则的挑战及其因应对正当行政程序原则的遵循,是行政机关进行行政决定时所应满足的最低程序性要求。虽然学界在具体界定正当行政程序原则的内涵上还存有分歧,但学者们大体同意正当行政程序原

38、则至少包括对行政机关的如下要求:其一,行政机关作出行政决定时应当说明理由;其二,行政决定的作出程序应当公55陈锦波:自动化行政合法性证成的基本逻辑参见章志远:行政法学总论,北京大学出版社 2014 年版,第 114115 页。参见沈岿:论行政法上的效能原则,载 清华法学 2019 年第 4 期。参见许崇德、胡锦光主编:宪法,中国人民大学出版社 2018 年版,第 146 页。宪法学者们倾向于认为类似内心的自由(如思想的自由、宗教信仰的自由)、人格尊严、接受公正审判的权利等是人们的绝对宪法权利,这些权利不应受到任何限制。但对于经济性的基本权利,现代宪法一般规定,国家可以基于公共利益的需要而对它们

39、进行必要限制。参见韩大元、林来梵、郑贤君:宪法专题研究,中国人民大学出版社 2008 年版,第 314317 页。开透明;其三,行政机关应当保证行政相对人有机会作合理的陈述和申辩,且相对人的该陈述申辩意见能够被行政机关公正地听取。那么,自动化行政是否会导致行政机关在践行正当行政程序原则的上述要求时有所怠惰?(一)自动化行政可能克减的程序利益机器学习算法的自我学习、黑箱运作和高速自动化等特性,决定了行政机关在运用机器学习算法进行行政决定时将会对传统行政法中的正当行政程序原则构成一定挑战。首先,自动化行政不利于行政机关说明理由制度的贯彻实行。机器学习算法的运转呈现出高速且自动化的特征,它会缩短人类

40、思考的过程甚至直接绕过人类来思考。此外,机器学习算法的自我学习和黑箱特性还会使得机器作出相关行政决定的理由难以解释且难以预测。这意味着行政机关运用机器学习算法来作行政决定时,在说理上会不够充分。这些都将削弱该行政决定的可接受性。当行政相对人无法理解相关行政决定而行政决定作出机关本身也解释不清自身为何作出该项行政决定时,行政机关和行政相对人之间的沟通成本就会增加,这也极易引发甚至升级公权行使者(行政机关)与公权作用对象(行政相对人)之间的矛盾。其次,行政的自动化将降低行政决定作出程序的公开透明度。机器学习算法具有自我学习和黑箱特性,这导致人们(很多时候包括行政机关在内)很难理解该行政决定是经由什

41、么样的程序而作出。一般而言,程序包括方式、顺序、步骤和时限等要素。在机器学习算法参与行政决定的过程中,一般不会出现时限延迟的情况;但此时相关行政决定的作出方式、作出顺序和作出步骤却可能会被极大简化,这直接影响到行政相对人程序参与权的实现。易言之,机器学习算法的特性决定了行政相对人将很难对行政决定的方式进行选择,也很难参与到行政决定的相关步骤中去。最后,上述的行政相对人对行政程序的缺乏参与,也将影响到行政相对人陈述和申辩等相关程序性权利的行使。也即,行政相对人在面对可能不利于自身的行政决定时,将没有机会就自己行为的合法性与合理性向行政机关作必要的辩解和理由陈述。而对行政机关来说,其在没有充分听取

42、行政决定利害相关方的意见前,就仓促作出行政决定,这也不免显得过于武断。“兼听则明,偏听则暗”,这一古老谚语所内嵌的公正裁判意旨也将无法获得实现。可见,行政的自动化确实会在一定程度上削弱行政机关所作行政行为的合法性韵味,也会减损行政相对人一定的程序性利益。对于自动化行政所提出的上述挑战,我们应该如何应对?(二)机器学习时代行政相对人程序利益损失的法律填补自动化行政对机器学习算法的运用确实面临着合法性危机。但是,作为顺势而生的新兴科技,机器学习算法显然又不能被轻易地否弃。因此,法学人要做的,是在不抛弃机器学习算法的前提下,促使正当行政程序原则在行政的自动化这一过程中合理的归位,以填补行政相对人因此

43、而遭受的程序性利益之损失。这一目标的实现,需要我们对机器学习算法采行过程化的监管措施。首先,行政机关应当向机器学习算法“投喂”高质量的数据集且保证公众对机器学习算法的必要知情权。一方面,机器学习算法能够顺畅且合法运作的基础,在于其内部拥有数量庞大且质量优良的数据集。数据是算法的燃料,一旦控制了向机器所“投喂”的数据,就等于从源头对机器学习算法进行了必要的管控。我们应当保证机器学习算法所依赖的这些数据是完整、准确和结构化的。只有保证这些65法学论坛2023 年第 3 期学界有关正当行政程序原则内容构成之共识和分歧的具体讨论,可参见陈锦波:公民姓名权的行政法双重保护,载 行政法学研究2020 年第

44、 5 期。参见 Andrew Tutt,An FDA for Algorithms,69 Administrative Law eview 107(2017)行政法治中的“可接受性”包括立法上的可接受性和执法上的可接受性。而正如相关学者所言,在当前的国情下,“行政执法上的可接受性”更应予以强调。参见王学辉、张治宇:迈向可接受性的中国行政法,载 国家检察官学院学报 2014 年第 3 期。参见章志远:行政法学总论,北京大学出版社 2014 年版,第 328 页。因为机器学习算法的高速、自动化特性决定了行政机关利用机器学习算法进行决策时会比传统人为行政决定快速的多。随着算法技术的发展,对算法进行规

45、制的路径也面临着迭代与革新。我们需要对算法内容和算法本身同时予以规制,而且这种规制应当在算法的设计、运营和事后救济等阶段全流程的展开。参见张凌寒:算法规制的迭代与革新,载 法学论坛 2019 年第 2 期。参见汪庆华:人工智能的法律规制路径:一个框架性讨论,载 现代法学 2019 年第 2 期。数据没有被“污染”,才能确保机器学习算法下的行政决定具有更高的科学性。另一方面,在对机器学习算法进行事前监管的过程中,国家还应当对算法的设计过程附加一定的要求,且保证公众相应的知情权。国家在对机器学习算法的设计者施加算法在设计时所应满足的规格、测试、信息披露以及算法伦理等方面要求的同时,还应当将机器学习

46、算法的设计目的和策略议程、机器学习算法所内嵌的诸种考量因素以及这些考量因素在行政决定中的占比程度等以合理的方式在事先向社会公众作必要的说明。其次,国家可以为机器作出行政决定的事项设置必要的程序性管控规则且赋予行政相对人一定的程序性权利,以实现对机器学习算法运作的事中监督。行政机关可以通过组建一个由行政官员、技术人员和法学专家等专业人员所共同组成的独立机构或专家委员会,来制定机器作出行政决定时所应遵循的程序性规则。此时专家委员会或独立机构可以依据事先制定的这些规则对机器学习算法进行监控,一旦发现机器学习算法偏离该规则预设的前进轨道,专家委员会或独立机构就可以随时中断或停止该机器学习算法的运行。也

47、即,人类应当保证可以在任何时候拒绝机器所选择的规则,可以随时改变算法的规格,甚至完全“拔掉插头”而终止机器学习算法的运作。当然,我们同时要警惕对机器学习算法的这种专业规制因过度强调规制主体的精英化而背离社会公共利益,要防止社会精英利用技术资源优势来将他们自身与后代设计成高人一等的“超人”。再次,国家还应当建立针对“机器进行行政决定”的事后监督机制。这主要是因为机器学习算法具有自我学习、黑箱运作和高度自动化等特性,所以虽然人类为其植入了选定的数据且设置了事中的控制程序,但是机器学习算法的运行仍然可能偏离人类预期的发展轨道。所以,人类要想真正掌握对机器的最终控制权,就有必要对机器学习算法进行一定的

48、事后控制。一方面,这种事后控制机制可以通过前述专家委员会或独立机构对机器作出行政决定的回溯性事后审查来实施。也即,专家委员会或独立机构一旦发现机器学习算法支配下的行政决定具有法定的可撤销情形,就应依法追溯性撤销该行政决定的法律效力,以便矫正机器学习算法所作之不合法行政行为。另一方面,对机器学习算法的事后监督还可以通过赋予行政相对人以必要的算法解释请求权来加以实现。具体来说,算法解释请求权是指行政相对人所享有的要求行政机关说明“为何运用该机器学习算法会最终导向该项行政决定”的权利。在法律授权机器进行行政决定的情形中,行政机关实际上已经执掌了相应的“算法权力”,原本处于优势地位的行政机关此时变得更

49、加强势。为了保证相对人能够有足够的力量和武器来抗衡行政机关并进一步对行政权进行监督,立法机关同时赋予行政相对人以相应的“算法解释请求权”就成为必然。最后,国家还应施加给行政机关以相应的算法影响评估义务,以督促行政机关在机器学习算法辅助75陈锦波:自动化行政合法性证成的基本逻辑参见 eg,ashida ichardson et al,Dirty Data,Bad Predictions:How Civil ights Violations Impact Police Data,Predictive Policing Systems,and Justice,94 New York Universi

50、ty Law eview 192(2019)参见张凌寒:风险防范下算法的监管路径研究,载 交大法学 2018 年第 4 期。例如,美国对此建立有专门的国家算法安全委员会(National Algorithm Safety Board),纽约市政府也建有相应的算法监控工作组(Algo-rithmMonitoring Task Force)。这主要是因为算法具有高度技术化的特征,因而需要专业化的规制机构来保证规制的有效性。参见 Cary Coglianese,The Emptiness of Decisional Limits:econceiving Presidential Control of

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服