收藏 分销(赏)

大数据环境下算法伤害侵权的法律规范研究.pdf

上传人:自信****多点 文档编号:326228 上传时间:2023-08-15 格式:PDF 页数:3 大小:1.32MB
下载 相关 举报
大数据环境下算法伤害侵权的法律规范研究.pdf_第1页
第1页 / 共3页
大数据环境下算法伤害侵权的法律规范研究.pdf_第2页
第2页 / 共3页
大数据环境下算法伤害侵权的法律规范研究.pdf_第3页
第3页 / 共3页
亲,该文档总共3页,全部预览完了,如果喜欢就下载吧!
资源描述

1、法治建设 楚天法治 大数据环境下算法伤害侵权的法律规范研究叶生涛(华东交通大学,江西 南昌 )【摘要】在当今的大数据时代,算法已经影响着人们生活的方方面面,人们享受着技术革新的盈利,却也承担着各种算法的伤害,其中以用户画像、算法黑箱、算法歧视为代表.这种伤害会对人们的隐私、不受歧视和人身自由等权利造成侵犯.因此,算法伤害侵权的规范是必要和紧迫的.笔者试着从完善相关立法、加强执法监督和完善救济路径三个角度,提出算法伤害侵权的法律规范方法,实现更有效的算法伤害侵权的规范目的.【关键词】算法伤害;侵权;法律规范在当今的大数据时代,算法正日益成为我们生活中十分重要的参与者。日常生活中,诸如出行打车、搜

2、索引擎、社交媒体平台的信息共享,以及购物网站的商品推荐等,皆由智能算法做出决策而来。相较于人工决策,算法决策具备诸如客观、高效、便捷等多项优点。年月 日,银保监会官网发布中国银保监会关于印发监管数据安全管理办法(试行)(以下简称办法),以加强对算法数据的监督,保障数据的安全。然而,随着算法技术与经济社会的融合,也出现了诸如算法黑箱、算法歧视等算法伤害现象,逃脱监督的算法伤害行为侵犯着人们的隐私权等基本权利。本文试着对算法伤害进行归类,找出其侵害人们基本权利的表现,并尝试提出对算法伤害侵权进行法律规范的建议。一、算法伤害的主要类型算法伤害是指因缺乏合理法律约束,算法技术在实际运用中对公民个人利益

3、或者社会公共利益构成的损害,在大数据化的当今社会里,主要体现为用户画像、算法黑箱、算法歧视等。(一)用户画像用户画像指的是为了评估自然人的某些条件,而对个人数据进行的自动化处理,特别是为了评估自然人的工作表现、经济状况、健康、个人偏好、兴趣、可靠 性、行 为 方式、位置或行踪而进行的处理。算法需要依靠数据才能发挥功能。在现 今的 社 会里,只要 用户 留 下一 些“只 言 片语”和上网痕迹,就能够被准确地描绘出其形象,而且不需要进行任何面对面的交流或者是对其房屋进行搜查。以电商平台为例,电商平台时常会根据用户以往购买记录、相似用户的购买行为,以及商品之间的关联性,运用精准推送功能,为用户提供所

4、需的商品信息。这种推送方式不仅节省了用户寻找商品的时间和精力,而且能满足用户个性化的购物需求,提高用户忠诚度。(二)算法黑箱算法黑箱是指算法的决策过程和内部机制不透明,用户无法理解和掌握算法的运作方式。算法的运行需要具备复杂的机器学习能力才能顺利完成,而其决策过程不透明,所以算法通常被描述为“黑箱”或“黑匣子”。算法自动化决策并非基于人们易于理解的规则,它不但不涉及人工干预,且常缺乏可读的数学方法。这种决策机制的不可捉摸性和不可解释性,给人们带来了很大的挑战。更糟糕的是,算法做出的决策有可能是错误的、充满偏见的,甚至会带来不好的后果。例如,当一个贷款申请人的数据被错误输入,导致信用评估算法拒绝

5、贷款时,其很难了解这个系统决策的机制。因此,只能无奈接受这个结果,却无法向任何人证明这个系统是否有对他进行非法歧视。(三)算法歧视算法歧视是人工智能自动化决策中,由数据分析导致的对特定群体的,系统的、可重复的、不公正的对待,广泛见于性别、种族、职业和贷款等方面。卡内基梅隆大学的一项研究发现,谷歌公司开发的广告定位算法可能存在针对用户的性别歧视。还有研 究发 现,在 美国 劳 动市 场环 境下,如果应聘者的名字听起来不像英美人常用的名字,则有可能成为算法歧视的对象。算法歧视盛行的原因在于,算法的目的、设计理念与技术标准都深受设计者或使用者的主观选择与价值观念的影响。这些人存在可能将自身的歧视或偏

6、见融入算法的决策程序中,从而导致歧视问题的出现。社会上存在算法歧视,它会放大弱势群体的缺点,增加不公平现象的发生。二、算法伤害的侵权表现(一)侵犯隐私权“隐私”是指个人那些与公众利益和群体利益无关的私人信息、私人活动和私人空间。隐私权是指“自然人享有的私人生活安宁与私人信息秘密依法受到保护,不被他人非法治建设 楚天法治 法侵扰、知悉、收集、利用和公开的权利”,我国公民的隐私权受民法典等法律的保护。中国网络诚信发展报告 调查数据结果显示,的被调查者表示曾经常遭遇个人信息泄露,的被调查者表示有时遭遇个人信息泄露。这一数据令人担忧,更 加凸 显 了隐 私保 护的 重 要性。当前,许多经营者在日常运营

7、中需处理海量用户个人信息,甚至有些网络企业的盈利模式就是基于大数据分析。这种情况下,因为相关的机构在使用用户的个人信息时,没有确立严谨的标准,再加上内部管理机制存在缺陷,就不时会发生个人信息泄露和公民隐私被侵犯的情况。一旦个人信息遭泄露,便极易成为各大商家所追逐的“潜在顾客”,进而可能会遭遇电话和短信的骚扰。有些科技公司在公民下载或使用某A p p时,可能会要求他们授权访问通讯录。一些广告公司则会不经用户同意就获取公民的隐私信息,更有甚者可能还向其通讯录中的其他联系人发送信息,还标注公民的个人信息,以此获得其他联系人的信任。这种行为不仅会使公民产生麻烦,也会让其和联系人之间产生误解,带来各种不

8、必要的烦恼。(二)侵犯不受歧视权我国不受歧视权的立法体现在宪法、法律、行政法规,以及行政规章、规范性法律文件的禁止歧视规定中,其规定范围包括教育、医疗、就业等方方面面。我国宪法第三十三条 规 定:“中 华 人 民 共 和 国 公 民 在 法 律 面 前 一 律 平等。”算法是一种基于数据和数学模型的计算机程序,它可以自动化地处理大量的信息,以实现特定的目标。然而,算法也可能侵犯公民的不受歧视权,这是因为算法的设计和实现可能存在偏见和歧视。例如,如果一个算法是基于历史数据进行训练的,而历史数据中存在歧视性别、种族、年龄等因素的情况,那么这个算法就可能会重复这些偏见,导致对某些群体的不公平 对待。

9、再 如,如果 算法 被用 于 决策,而决策者存在偏见,那么他们可能会在决策中加入自己的偏见,导致算法对某些群体的不公平对待。算法本身自带的歧视性,会造成算法 伤害 也 带着 歧视 性。算法 黑 箱中,往往掌握技术的一方处于有利的地位,在同样中性的算法技术面前,掌握技术的一方处于有利地位,相对方则处于被歧视的地位。在算法操控中,一些互联网企业会利用部分公民不懂技术或者知识面不广、文化程度不高等,实施算法伤害,这也是一种变相的歧视。(三)侵犯人身自由权人身自由权分为广义和狭义的理解,狭义的理解即人身自由不受侵犯的权利,广义的理解就包括人身自主、举止行动的自由等内容。我国宪法第三十七条规定,“中华人

10、民共和国公民的人身自由不受侵犯禁止非法拘禁和以其他方法非法剥夺或者限制公民的人身自由”。但算法对人身自由造成的限制是间接的、难以察觉的,因为算法程序具有替人做出选择的功能,人们也就被动地做出选择,这是一种变相的自由限制。以算法黑箱为例,算法黑箱可能会侵犯人身自由权,因为它们可以在不经过人工干预的情况下做出决策,这些决策可能会对个人产生不利影响。例如,一个算法黑箱可能会决定拒绝某人的贷款申请,而这个人可能并没有做出任何不良行为或信用记录。这种情况下,个人的自由权被侵犯了,因为他们没有机会为自己解释或辩护。此外,算法黑箱可能会收集和使用个人的敏感信息,这也可能会侵犯人身自由权。三、算法伤害侵权的法

11、律规范路径算法技术是一把双刃剑,运用得好,可以造福人们;运用得不好,就会产生算法伤害。因此,法律规范的价值应当是既要发挥算法技术促进社会发展的作用,同时,也要避免算法伤害对人们合法权益的侵害。具体而言,可以从完善相关立法、加强执法监督和完善救济路径三个方面发力,最终实现对算法伤害侵权的规范目的。(一)完善相关立法,明确侵权责任首先,要加强算法伤害规范方面的立法。我国现有的算法伤害规范方面的法律法规主要有网络安全法 数据安全法 个人信息保护法 电信和互联网用户个人信息保护规定 互联网个人信息安全保护指南 常见类型移动互联网应用程序必要个人信息范围规定等。面对瞬息万变的数据社会,这些法律法规体现出

12、明显的滞后性或者局限性。因此,要在既有法律法规的基础上,及时完善规章和其他规范性文件,以弥补立法滞后性带来的无法可依的局面。其次,要细化侵权责任,要分角色确定责任主体,算法伤害的主要参与者有算法技术的开发者、算法技术的使用者和第三方平台的侵权实施者和算法技术的监督者,对于算法伤害发生时,若是算法本身再开发时就是有问题的算法技术,就会直接产生算法伤害,则应当追究算法开发者的责任。如果算法在运用过程中,第三方平台违规使用或者恶意设置导致的算法伤害,则应当追究第三方平台的责任。(二)加强执法监督执法部门的监督是避免算法伤害侵权发生最直接有效的手段。首先,要严格执行与算法伤害有关的法律,这个法律是指广

13、义上的法律。执法机关要切实履职尽责,使得相关法律走出纸面、走进社会生活实践。算法伤害发生的群体往往比较集中,多数为大数据的运营商和与大数据算法有关的科技巨头,掌握技术可 以实 施算 法 伤害 的前 提。因此,在执法过程中可以针对性地加强对这些主体的检查监督,更好地从源头遏制算法伤害的发生。其次,加强执法队伍的培训,提升执法的专业性,算法伤害作为新社会形态下的新事物,为人所熟悉必然需要一个过程。这就要求执法治建设 楚天法治 法机关工作人员要加强学习、扎实基础,以便更好地判断算法伤害的边界,确定具体算法伤害事件的性质。(三)完善侵权救济机制首先,要重视事前救济的作用,由于算法侵权成功后,其在大数据

14、环境下极易形成广泛的传播、共享,一旦成功便很难及时追回,以隐私权为例,算法一旦对用户的隐私造成了侵害,可能迅速就在互联网上发生了复制、转发、评论等二次侵权,因此,算法侵权的事后救济效果不太理想,要着力发挥事前救济的作用。比如,可要求算法控制者将含有用户个人隐私的信息进行匿名化或隐私保护处理等。其次,可以设立专门的算法监督管理部门,专门处理算法侵权的投诉,我国当前类似算法伤害侵权的打击采用的是多部门联合执法的方式,这往往容易产生互相推诿的情况,出现“无人管”的状态。设立专门的算法监督管理部门,当人们发现自己的权益被算法伤害侵犯时,可以找到该部门进行处理,以减少我国的司法压力。最后,要完善算法侵权

15、的司法救济渠道,这是算法伤害侵权救济的最后一道防线,要建立算法伤害侵权的立案、受理、审判、执行等一整套畅通的权利救济体系,让被侵权者的合法权益能得到维护,让恶性算法成为良性算法。四、结束语算法伤害是一个相对较新的现象,因此,有必要将其纳入法律监督的范围,因为算法技术已经深刻融入每个人的生活中,与我们的切身利益息息相关。目前,算法技术仍处于发展的初级阶段,技术进步是必然的,因此,我们应该以积极的态度来面对它,并为其提供更多的宽容和成长空间。针对当前和未来算法技术所带来的变革和影响,人们应当保持充分的理论自信和制度自信,既要确保算法技术的活力,同时,也要保障个人权利和自由。参考文献:张凌寒商业自动化决策的算法解释权研究J法律科学(西北政法大学学报),():孙江,张梦可新闻算法分发对隐私权的冲击及规制J青年记者,():孟天广,李珍珍治理算法:算法风险的伦理原则及其治理逻辑J学术论坛,():包康赟人脸情绪识别算法的风险与规制J北方法学,():梅帅智能算法推荐的社会风险及其法律规制J科学经济社会,():作者简介:叶生涛(),男,汉族,江西赣州人,硕士研究生,研究方向:宪法学与行政法学.

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 法律论文

移动网页_全站_页脚广告1

关于我们      联系我们       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号  |  icp.png浙ICP备2021020529号-1 浙B2-2024(办理中)  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服