收藏 分销(赏)

大数据背景下算法歧视的剖析、困境与规制.pdf

上传人:自信****多点 文档编号:547491 上传时间:2023-11-27 格式:PDF 页数:7 大小:1.37MB
下载 相关 举报
大数据背景下算法歧视的剖析、困境与规制.pdf_第1页
第1页 / 共7页
大数据背景下算法歧视的剖析、困境与规制.pdf_第2页
第2页 / 共7页
大数据背景下算法歧视的剖析、困境与规制.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、摘要算法决策如今已经遍布人们的日常生活,随之产生的算法歧视问题是大数据时代的一大技术难题和法律难题。算法的自主性特征及其特殊的运行机理决定了算法歧视的规制困境,欧盟的数据赋权、美国的算法问责以及关于算法公开、可解释性的规制路径都存在一定的局限性,算法权力产生的算法歧视暴政需要公权力的介入,通过建立算法审查委员会和动态审查机制来进一步规制。关键词算法公开;数据赋权;算法审查;动态审查中图分类号 D922.1文献标识码 A文章编号 1005-0183(2023)01-0116-072023年第1期总第496期法制与经济经济法大数据背景下算法歧视的剖析、困境与规制李玉莹收稿日期2022-08-06作

2、者简介李玉莹,广西大学法学院2020级在读硕士研究生。在大数据日益发展的今天,算法已经遍布我们生活的各个领域,乘车、旅游、购物、贷款、娱乐等都可以通过互联网进行,这都离不开对算法技术的应用。在大数据背景下,发展迅速的算法技术给消费者提供了更好的商品和服务,商家则通过数据分析和算法推荐来提高顾客的满意度和交易的效率。与此同时,因算法权力产生的算法歧视问题也逐渐凸显,诸如大数据“杀熟”、简历筛选系统的性别歧视、搜索引擎竞价排名等现象层出不穷,危害了公民的公平交易权、平等就业权、知情权等基本权利。社会中本来就存在基于性别、年龄、种族、职业等因素的各种歧视,算法的发展和应用则为歧视通过技术手段使这些偏

3、见和歧视的“实施”变得更为变本加厉,扩大了不良影响,不当损害了有悖于人类共同价值的权益。算法歧视作为技术难题和法律难题,其规制离不开技术的支撑和制度规则的构建,欧盟的数据赋权和美国的算法问责都为规制算法歧视提供了方向和路径,但仍需要公权力的介入来对症下药,实现对因算法权力滥用而导致的算法歧视规制。一、算法歧视的基本问题(一)算法歧视的概念界定1.传统算法和当代算法算法是指将输入转换成输出的计算步骤序列,是计算机在计算或解决问题的过程中要遵循的规则。算法常常被界定为可以由计算机等具有信息处理能力的装置所执行的解决某一问题的具体处理过程1。算法根据不同的特征可以分为传统算法和当代算法2。传统算法的

4、特点在于基本没有自主性,算法的全部内容都是设计者制定的,开发者和设计者知道且理解算法的全部内容。同时,传统算法缺乏自主获取信息的能力,无法从有限的数据中推测未知的信息。因此,传统算法不存在“算法黑箱”。当代算法的特点在于其具有自主学习的能力,意味着算法本身可以通过深度学习的能力产生无法被设计者预先了解的内容,即可能促使“算法黑箱”的产生。同时,当代算法可以从间接信息中推测出未知信息,即算法不仅可以利用输入的数据信息,且因为庞大的数据规模和机器学习能力,算法可以自主获得未知的信息,并将其运用到算法决策当中,甚至在运作中自动优化模型。本文所讨论的算法即当代算法,本文讨论的算法歧视指的是基于当代算法

5、产生的歧视。2.算法歧视的表现和概念算法歧视是指通过算法决策对被决策人产生的歧视,发生在使用算法决策工具的场景下。在算法广泛使用的互联网环境下,算法歧视体现在生活116中的方方面面。“大数据杀熟”在我国受到广泛关注是在 2017 年底,当时有网友在微博曝光,自己和朋友的账号登录同一网站预订酒店,却显示不同的价格,即常用的账号价格高,不常用的则有较多优惠。在互联网商品和服务的交易中,经营者通过对收集来的用户信息进行分析,对用户进行画像,通过算法实现“千人千价”,通常对熟客、支付能力和意愿更高的消费者收取更高的价格,从而实现“大数据杀熟”。在美国司法系统中,算法还曾被用来预测罪犯的再犯罪概率,但因

6、相关算法对黑人被告的评分数据过高而被叫停此做法。因该评分数据对白人和黑人的统计结果相差较大,被认为存在对黑人群体的歧视。2016年,我国“魏则西事件”中的主人公因为在百度上搜索出某医院的生物免疫疗法,随后在该医院治疗但未能好转,反而耽误诊治,最后因肿瘤扩散而去世。此事被认为是百度对医学信息的竞价排名展现了赤裸裸的算法歧视,并因此造成了严重的后果。同样的,今日头条因算法推荐内容同质化而广受诟病。大数据背景下,应用算法可以向消费者推荐感兴趣的商品和提供便捷的服务,可以协助司法机关预测罪犯的再犯罪概率,可以为用户提供更好的互联网使用体验,但如果设计者对算法的不当设计、对数据的不当分析和利用以及算法的

7、自主决策常常会将人类的偏见和歧视植入算法中,甚至产生设计者和使用者也无法预料和控制的歧视结果。在国际人权法中,构成歧视需要符合相关条件,核心在于差别对待,不仅要存在差别对待,差别对待的理由还要是被法律所禁止的,同时差别对待还应产生了不良后果3。算法歧视因算法的自主性特 征,被 称 为 自 动 化 歧 视(Automated Dsicrimination),由于算法除了自主性的特征,还可能被人有意设计而产生歧视。本文认为算法歧视是指算法的开发者、设计者、使用者利用算法实施或者算法在运行过程中本身实施了为法律所禁止的差别对待行为,损害了被决策者的平等权、知情权等权利。(二)算法歧视的类型1.根据主

8、观意图分类算法歧视根据行为主体是否具有“歧视”意图,可以分为差别待遇歧视和差别性影响歧视。差别待遇歧视要求行为人具有歧视的意图,差别性影响歧视要求客观上具有差别性的影响,即产生了歧视结果。差别待遇歧视又可以分为显性歧视和隐性歧视。显性歧视直接将性别、种族、国家、宗教信仰等特征因素作为考量因素,具有直接故意的歧视意图。隐性歧视采用的是间接的因素,即上述特征因素的替代因素,例如通过限制身高来进行性别歧视,不体现直接故意的歧视意图4。隐性歧视因为其隐蔽性更难被发现和规制,是算法歧视规制中的一大难题。2.根据歧视群体分类根据歧视群体的不同,即根据的敏感数据的不同,算法歧视可以分为性别歧视、种族歧视、宗

9、教歧视以及性取向歧视等,其中常见的如就业领域的简历筛选算法系统出现的性别歧视。2018 年有媒体曝出亚马逊所使用的招聘系统存在对女性的歧视,算法在进行简历筛选时,包含“女性”等词的简历会受到负面评价,被降权处理5。另外还有对黑人的歧视,也常见于各种算法中。例如,美国的网约车公司 Uber 因为其使用的匹配乘客的算法很容易让司机猜测到乘客的种族,导致黑人在使用Uber乘车时受到歧视,此即上文提到的隐性歧视的实例,也是种族歧视的实例。3.根据运行特征分类有学者认为根据运行特征,算法歧视可以分为三种类型,即特征选择型、偏见代理型和大数据杀熟型6。特征选择型是指算法开发者、设计者利用敏感数据,对社会中

10、已经存在的刻板印象和歧视的算法表达。偏见代理型与特征选择型的不同在于算法开发者、使用者使用的训练数据不是敏感数据,而是对与敏感数据相关联的数据的联合使用,即对相关联数据的联合使用。相关联数据的特点在于可以通过对不具有敏感信息的数据进行分析,从而推测出未知的信息,这些未知的信息会致使歧视现象的发生。大数据杀熟,即算法价格歧视,一般不是针对单一消费者,是一种针对消费者群体违反诚实信用原则的行为7,通过采集的消费者的收藏数据、浏览数据、购买记录等信息对消费者进行用户画像,从而对不同的消费者进行不同的定价,尤其是对老客户实施更高的交易价格,实际上实现117了经济学上的一级价格歧视。有学者认为从表面上看

11、大数据杀熟是一种价格歧视行为,从深层上看则反映了我国对个人数据保护的欠缺8。(三)算法的运行机理算法的运行可以分为三个阶段,即算法设计阶段、算法开发阶段和算法应用阶段9。算法设计阶段是设计者对逻辑思维进行语言描述,通过文字来表达人的逻辑以后续应用到算法中去。算法开发阶段是将算法设计阶段的语言描述转化为源代码,即将人的思维逻辑通过计算机语言表达出来。算法应用阶段是最终程序进行算法决策的阶段,设计者通过驱动源代码来运行算法程序,从而完成算法决策。算法运行的三个阶段都有可能产生算法歧视,分别属于先行存在性偏见、技术性偏见和突发性偏见10,这是在机器具备学习能力之前就已经存在的偏见,分别在不同的阶段影

12、响了算法歧视的形成。1.算法设计阶段在算法设计阶段,由于计算机存在先行存在性偏见,算法被认为嵌入某种偏见或者某种文化体制、政治体制等参数而发生歧视,亦可能会受到设计人员的价值判断、公平观念的影响而发生歧视。正如学者所言,设计者设计了程序算法,他们固有的价值观和偏见可能会嵌入程序指令,从而导致算法运行的过程以及决策结果都带有一定的倾向性11。该阶段歧视的产生主要来源于训练数据,如果训练数据本身具有歧视和偏见,算法会固化既有的歧视。正如学者所言,算法的设计原理就是对社会运行方式的模型重塑,基于历史经验的算法去预测未来,将无法完全跳出历史偏见的局限9。2.算法开发阶段在算法开发阶段,技术人员会因为技

13、术所限而不能制定完善的算法,从而导致算法应用阶段发生算法歧视,即算法的技术性偏见。当然,以算法价格歧视为例,技术人员可能会故意设计对老顾客“杀熟”的算法来实现一级价格歧视,此时算法歧视的产生不是因为开发阶段的技术所限,而是设计人员有意为之。3.算法应用阶段算法应用阶段还可能发生突发性偏见,即应用过程中发生不受设计者控制、在设计者意料之外的突发性决策,此种决策源于“算法黑箱”和机器的深度学习能力,此种算法歧视是难以预见和难以避免的。该阶段产生的歧视还有可能来自于输入数据具有歧视性。输入数据不同于训练数据,训练数据是用来设计算法的数据库,而输入数据是在具体的决策中需要的原材料,因此算法设计和算法开

14、发中立不意味着算法决策结果一定中立12。二、算法歧视的现有规制路径及其局限性(一)域外规制介绍计算机程序遵循“GIGO”(Garbage in,Garbageout)定律,算法运作因此遵循“BIBO”(Bias in,Biasout),指的是输入具有歧视性的数据就一定会输出具有歧视性的决策结果13。事实上,各种机器学习算法都是基于过去的数据并利用某种归纳偏好来预测未来的趋势,具有歧视或偏见的数据会被记录和学习并应用到未来的预测中去,然而科技的发展应该有助于减少歧视而不是固化歧视,这是在大数据时代科技发展所面临的难题。1.欧盟2019年,欧盟委员会发布了人工智能道德准则可信赖 AI 的道德准则(

15、Ethics Guidelines forTrustworthy AI),其中提到四项道德准则,即尊重人的自主性、预防伤害、公平性和可解释性14。2016年,欧盟通过了 通用数据保护条例(以下简称 条例),条例 是目前对个人数据最全面和最严格保护的代表,亦是第一部对规制算法歧视进行明文规定的立法15。条例 把数据清洁作为规制算法歧视的首要原则,即通过对具有偏见和歧视的训练数据进行“清洁”来规制算法歧视,具体操作是将训练数据中的敏感信息移除来达到清洁数据的目的,也可以称之为数据脱敏,去除和脱去个人信息中具有身份识别性的敏感信息。个人数据赋权是欧盟保护个人数据和规制算法歧视的主要途径,条例 在数据

16、权利方面也做出了相关规定,规定了访问权、被遗忘权、更正权、反对权、数据携带权、限制处理权等权利。2.美国2017年1月,美国计算机协会发布了 关于算法透明性与可责性的声明,该声明针对算法的透明性和可责性提出了七项原则,即意识原则、访问与118救济原则、可问责性原则、可解释性原则、数据跟踪原则、可审计原则以及验证与测试原则。2019 年 4月,美国国会议员提出了 算法责任法案,该法案授权联邦贸易委员会要求企业对自动化决策系统的歧视风险进行评估。2019年6月,美国国家科技委员会发布 人工智能研发战略计划,强调通过优化设计提高AI系统的公平、透明和可问责性。美国与欧盟的不同之处在于,欧盟对个人数据

17、的保护更为严格,不仅具有集中的立法,而且具体规定具有强制性。而美国更加强调市场和自由,因此只是在医疗、教育等敏感的领域进行专门的立法,立法比较分散。同时,美国更加强调自我规制,更多的是通过行业自律的方式来保护个人数据。总的来说美国认为个人数据应强调流通价值,采用以算法责任为中心的规制模式15。(二)现有规制路径及其局限性1.算法公开、透明及其局限性从算法的分类和运行机理可以看出算法具有不透明性和自主性,算法公开、透明是应对算法歧视的重要举措。在大数据时代,人工智能发展正在由弱人工智能向强人工智能过渡,庞大的训练数据和机器的深度学习能力使算法具有自主性,增加了算法决策结果的不可预测性,即发生在算

18、法应用阶段的突发性偏见,是设计者不可预见的,导致算法运行的透明度较低,难以通过监管来防止或改善算法歧视。算法的自主性决定了算法系统运行决策过程的不透明,从而形成“算法黑箱”,算法设计者亦无法对算法的决策过程作出解释,从而导致了对算法歧视进行问责的困难。算法的不透明性存在三种类型,第一种是由于属于商业秘密或国家秘密而导致的不透明;第二种是公众、非专业人士对算法的运作过程和专业技术的无知所导致的不透明性;第三种是算法黑箱,即深度学习的特征导致了算法运作过程的不透明性16。算法的不透明性首先是过程的不透明,其次是数据使用情况的不透明。前者需要通过算法公开来进行规制,后者需要通过个人信息保护来进行规制

19、。追求算法的透明性是事前监管算法偏见的重要方式,有利于减少举证诉累和降低公民事后救济的成本14。算法公开作为应对算法不透明性的重要手段,因存在各种问题而受到质疑。首先,机器的深度学习能力会促使算法的优化,算法的运行会脱离算法设计者的理解范围,此时即使公开训练数据和计算机编码也无法有效应对算法歧视15。其次,算法黑箱并不能靠算法公开得到解决,且算法的复杂性导致了对于普通人来说难以理解,甚至专家也会对公开的算法存在不同的理解。再次,算法公开可能会侵犯企业的商业秘密和知识产权,威胁企业的数据安全和降低经济效益,损害企业公开算法的积极性。最后,算法公开如果被不正当利用会导致“算计”问题,导致算法风险的

20、可控性降低。例如,相关主体利用搜索引擎公司或者评级网站公开的算法来提高自己的搜索排名和改变评分,此类行为会引起信任危机和扰乱市场秩序17。有学者甚至认为,算法透明原则通常既不可行,也无必要18。2.数据赋权、个人信息保护及其局限性我国关于个人信息的保护在 个人信息保护法 发布后逐步得到完善,个人信息保护法 规定了什么是“敏感个人信息”,即“一旦泄露或者非法使用,容易导致自然人的人格尊严受到严重侵害或者人身、财产安全受到危害的个人信息”,同时规定“生物识别、宗教信仰、特定身份、医疗健康、金融账户、行踪轨迹等”也属于敏感个人信息的范畴。通过法律规定限制了相关主体对敏感个人信息处理的限制,即“应当取

21、得个人的单独同意”,“应向个人告知处理敏感个人信息的必要性以及对个人权益的影响”。以上规定对相关主体施加了使用个人敏感数据的解释说明义务,在保护个人信息的同时可以一定程度上限制算法歧视。个人信息保护的规定要求数据使用者在收集、使用个人数据时非必要、未经同意不使用个人的敏感信息,落实在实际操作中即上文提到的“数据清洁”的要求。“数据清洁”对于避免和规制算法歧视来说同样存在各种局限性。对数据的清洁仅能移除携带敏感信息的数据,大数据时代个人数据的高度相关性决定了移除敏感数据不足以防止间接歧视,而且技术人员也难以保证数据已经被清洁干净。对个人数据的过度保护会带来问题,因为在大数据时代,企业需要收集大量

22、的信息才能为消费者提供优质的服务,有学者认为人工智能要精确有效地服务119其设计目的,需要处理大量数据以实现机器学习的目的15。关联性数据引起的间接歧视在目前来看,从保护个人数据的角度是无法实现有效规制的。欧盟个人数据赋权的规制进路从表面上赋予了数据主体很多数据权利,但难以产生有利于数据主体的实质效果。比如数据携带权,该权利的规定旨在提高个人对与自己相关的个人数据的掌控力,然而有学者认为 条例 关于数据主体“同意”的规定十分严格,企业很难按照要求取得数据主体的同意,因此预计大多数数据收集主体不会遵循该规定19。有权利必然有救济,当下算法歧视的私力救济尚不存在现实基础。公民与企业之间在拥有的信息

23、、资源方面存在巨大的差距,公民面临举证难、诉讼成本高等问题,在信息不对称的情况下,甚至很多消费者、求职者很难发现自己受到了算法歧视,此种情形遑论寻求救济了。3.算法可解释性及其局限性有学者认为算法的公开、透明对于实现算法问责既不充分,也不总是必要的,透明性本身不是目的,其只是通向可理解性的一个阶梯11。算法的公开透明不能解决算法相对人无法理解算法的问题,因此也难以发现被歧视的事实。可解释性才是人类与自动化决策系统之间的接口20,可以为事后的追责提供依据。算法的可解释性涉及人的知情权和主体地位,不仅有利于应对算法自主性和歧视数据带来的算法歧视,对人工智能的发展也具有重大意义21。有学者认为,要求

24、算法具有可解释性,可以帮助算法使用者了解决策的制定过程和优缺点,从而可以对方案进行风险评估和进一步的完善,也方便被决策者在对决策结果产生异议时,要求算法使用者进行解释说明,从而维护双方之间的信任22。然而事实上,对于算法的可解释性,算法的自主性决定了算法的自主决策在很多时候是无法解释的,设计者都无法理解的决策过程,要求其给出解释是无法实现的。有学者认为基于大数据的算法与可解释性所要求的因果关系阐释具有完全不同的逻辑17,因为基于大数据的算法决策、运作过程实际上是一种相关关系,而非因果关系。目前关于算法的解释性的研究还处于初步阶段,不同的学者对可解释性赋予的含义不同,提出的解决方法也各有侧重23

25、,没有一个统一的标准或者认可度较高的实施方案。三、算法歧视的公法规制进路(一)公法规制的必要性目前规制算法的路径,例如欧盟的数据权利的赋予和美国的算法责任的规定,往往都属于事后监管,对权利的侵犯行为和义务的不履行都是事后才能对其进行规制,具有一定的局限性,无法有效解决算法歧视问题。有学者认为新权利和新义务的诞生,往往需要长时间的论证和不断地博弈24,因此灵活的行政规制才是目前解决算法歧视问题的关键。同时目前关于通过算法公开、算法可解释性和个人信息保护规制算法歧视的设想,表面上可以减少算法歧视的发生,实际上却难以真正实现对算法歧视的规避。在大数据时代,算法作出重要的决策不取决于数据本身,而在于如

26、何对数据进行算法上的分析11。算法在由弱人工智能发展到强人工智能的进程中,已经成为决定我们生活方式的关键因素,在现代社会逐渐被视为一种社会权利,有学者认为通过算法决策,事实上改变了算法使用者与被决策人之间的平等地位,形成了“算法权力”24,所谓“绝对的权力导致绝对的腐败”,在缺乏有效的法律和行业规制的当下,难免会形成“算法暴政”,需要公权力介入其中通过监管来削弱和规制算法权力,对算法及通过算法攫取的权力进行有效监督。美国的联邦贸易委员会、欧盟的数据保护委员会、日本的个人数据保护委员会等机构都是行政监督和审查机构,我国也可以根据我国的国情和算法发展现状,建立行政审查监督机构来应对大数据时代的算法

27、歧视问题,具体可以通过建立算法审查委员会和动态审查机制来实现。(二)建立算法审查委员会算法的复杂性和自主性决定了需要专门和专业的算法监管机构,应对不同的算法决策场景中的算法歧视。2022年3月施行的 互联网信息服务算法推荐管理规定(后文简称 规定)规定国家网信部门负责全国算法推荐服务治理和相关监督管理工作,电信、公安、市场监管等有关部门依据各自职业负责算法推荐服务监督管理工作。这为算法歧120视的监管提供了很好的方向,无论是算法推荐的管理还是算法歧视的规制都需要克服九龙治水的监管格局,避免多头监管,造成行政资源的浪费,可以建立算法审查委员会来统一负责算法决策带来的一系列问题。关于算法审查委员会

28、的监管对象,不仅要对算法的设计者和使用者的行为进行监管,还要对算法本身进行监管。算法的自主决策决定了现如今算法不仅是为人的决策行为提供参考的工具,而是已经成为社会价值判断的一部分,算法的开发者、设计者和使用者作为责任的承担者的身份没有改变,但不再是唯一的需要受到监管的对象,算法本身也需要监管。对算法本身的监管需要较高的技术和成本,且存在不可克服的技术困难,因此可以通过对程度的监管来辅助对算法的直接审查。另外,建立专门的审查机构需要明确的职权赋予,应通过法律明确赋予算法审查委员会审查算法所需要的各种权力,以便在审查活动中可以有法可依,同时规范权力的行使。算法审查委员会的组成不仅要包括行政机关人员

29、,还要吸纳专家和业界代表,共同行使备案、调查、调解、支持诉讼等职能12。(三)建立动态审查机制算法的自主性作为其主要特征,决定了算法黑箱的存在,由此产生的不透明性和不可预测性需要动态的审查制度才能从根本上实现审查目的,动态的审查包括事前、事中和事后的审查,不仅要发现歧视后果,还要发现潜在的歧视风险,防患于未然,从根源减少算法歧视的生成,减少算法歧视带来的信任危机和权利侵害。有学者认为应该结合定期的审查和不定期的审查4,算法的自主决策不是静态地执行固定操作,而是在动态地变化改进16,因此需要定期审查和不定期审查相结合。同时,算法黑箱的存在决定了算法审查无法解释算法歧视中的因果关系,因此,在审查内

30、容上,应以结果审查为重点,以过程审查为辅助。在动态审查过程中,有学者认为可以参考环境影响评估制度4,建立算法歧视的影响评估制度。在算法投入之前,进行算法审查不足以发现可能的算法歧视的风险,需要由第三方评估机构对算法模型进行专业的评估,同时建立评估报告披露制度,对评估报告的披露有利于实现评估的公开和公正,实现专业人士和非专业人士之间的交流25。为了保证评估活动的公开透明,还应该建立公众参与制度,监督评估活动的顺利、有效进行。参考文献1 张吉豫.智能社会法律的算法实施及其规制的法理基础以著作权领域在线内容分享平台的自动侵权检测为例 J.法制与社会发展,2019,25(6):81-98.2 阎天.女

31、性就业中的算法歧视:缘起、挑战与应对J.妇女研究论丛,2021(5):64-72.3 李薇薇.论国际人权法中的平等与不歧视 J.环球法律评论,2004(2):226-233.4 张恩典.反算法歧视:理论反思与制度建构 J.华中科技大学学报(社会科学版),2020,34(5):60-71.5 邹开亮,王霞.大数据算法背景下就业歧视规制初探 J.价格理论与实践,2020(6):37-42.6 郑智航,徐昭曦.大数据时代算法歧视的法律规制与司法审查以美国法律实践为例 J.比较法研究,2019(4):111-122.7 朱建海.“大数据杀熟”的法律规制困境及其破解路径 J.重庆邮电大学学报(社会科学版

32、),2021,33(1):64-72.8 胡元聪,冯一帆.大数据杀熟中消费者公平交易权保护探究 J.陕西师范大学学报(哲学社会科学版),2022,51(1):161-176.9 刘玉绰.平等权对算法歧视治理的宪法功能展开J.科学 经济 社会,2022,40(1):66-79.10FRIEDMAN B,NISSENBAUM H.Bias in ComputerSystem J.ACM Transactions on Information Systems,1996,14(3):330-347.11 刘东亮.技术性正当程序:人工智能时代程序法和算法的双重变奏 J.比较法研究,2020(5):64-

33、79.12 韩铄.算法如何平等:算法歧视审查机制的建立J.南海法学,2020,4(2):114-124.13PHALGUNE A,KISSNGER C,BURNETT MM,et al.Garbage in,Garbage out?An Empirical Look at Oracle Mistakes by End-User Programmers J.IEEE Symposium on VisualLanguages and Human-Centric Computing,2005(40).14 徐斌.人权保障视野下的算法规制:从 多伦多宣言 切入 J.人权,2019(4):124-138

34、.15 章小杉.人工智能算法歧视的法律规制:欧美经验与中国路径 J.华东理工大学学报(社会科学版),2019,34121(6):63-72.16 宋华琳,孟李冕.人工智能在行政治理中的作用及其法律控制 J.湖南科技大学学报(社会科学版),2018,21(6):82-90.17 丁晓东.论算法的法律规制 J.中国社会科学,2020(12):138-159+203.18 沈伟伟.算法透明原则的迷思算法规制理论的批判 J.环球法律评论,2019,41(6):20-39.19 卓力雄.数据携带权:基本概念,问题与中国应对J.行政法学研究,2019(6):129-144.20GUIDOTTI R,MON

35、REALE A,RUGGIERI S,et al.ASurvey of Methods for Explaining Black Box ModelsJ.ACMComputing Surveys.2018,51(5):93:1-93:42.21 潘芳芳.算法歧视的民事责任形态 J.华东政法大学学报,2021,24(5):55-68.22 李良成,李雨青.人工智能嵌入政府治理的风险及其规避 J.华南理工大学学报(社会科学版),2021,23(5):1-13.23 吴飞,廖彬兵,韩亚洪.深度学习的可解释性 J.航空兵器,2019,26(1):39-46.24 肖冬梅.“后真相”背后的算法权力及其公

36、法规制路径 J.行政法学研究,2020(4):3-17.25 沈岿.风险规制与行政法新发展 M.北京:法律出版社.2013:89-90.(责任编辑:韦家朝)(上接第85页)为达到国际知识产权治理水平而接续努力,还要积极分享我国的法律实践有益经验,为促进、提高国际知识产权治理水平贡献中国智慧与中国力量。五、结语RCEP正式生效实施体现了发展中国家正逐步活跃于国际知识产权协调领域,发展中国家的诉求和态度开始得到重视,知识产权的治理格局将从以往的“重保护轻运用”转变为注重“运用和创新”,各发展中国家以及欠发达国家逐步赢得知识产权国际协调活动的话语权和主动权。我国将以更积极开放的心态参与其中,内化形成具有中国特色的知识产权保护规则,对外为国际知识产权治理提供法治经验,为全球知识产权治理谋发展。参考文献1 马忠法,谢迪扬.RCEP 知识产权条款的定位、特点及中国应对 J.学海,2021(04):181.2 新华社.习近平在中央全面依法治国工作会议上强调坚定不移走中国特色社会主义法治道路 为全面建设社会主义现代化国家提供有力法治保障 J.中国人大,2020(22):8.(责任编辑:韦家朝)122

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服