收藏 分销(赏)

算法侵权的法律规制_张然.pdf

上传人:自信****多点 文档编号:586617 上传时间:2024-01-04 格式:PDF 页数:3 大小:1.80MB
下载 相关 举报
算法侵权的法律规制_张然.pdf_第1页
第1页 / 共3页
算法侵权的法律规制_张然.pdf_第2页
第2页 / 共3页
算法侵权的法律规制_张然.pdf_第3页
第3页 / 共3页
亲,该文档总共3页,全部预览完了,如果喜欢就下载吧!
资源描述

1、随着移动电子终端前所未有的普及和大数据时代的到来,算法扮演着举足轻重的角色,影响人们生活的方方面面。算法技术的普及大大提高资源分配的公正度和合理性,使得物尽其用,人尽其能;同时,算法歧视、算法黑箱、大数据杀熟、信息茧房等算法技术的不合理应用,为法律如何进行规制带来挑战。关键词:算法侵权;法律规制;算法公开一、问题的提出随着移动电子终端前所未有的普及和大数据时代的到来,算法技术异军突起,依托海量内容,多元用户和不同场景的核心数据,成为现代数字经济社会发展的动力引擎。一方面,算法技术通过海量数据分析和自我纠错功能,对过去的行为轨迹进行分析,预测将来的行为,实现精准匹配,大幅提高资源分配的公正度和合

2、理性;另一方面,算法技术通过海量数据获取,交叉对比数据和还原敏感数据,蚕食个人隐私空间,进行人格画像,从而精准营销和价格歧视,具有剥夺人类自决权和侵害隐私权之虞。本文旨在通过梳理算法技术侵权的外在表现形式,探讨现阶段算法侵权风险下数字用户权益保护的路径,以期对算法治理的困境进行回应。二、算法技术侵权之表象侵害公民权益算法“是一系列解决问题的指令,一旦输入初始指令,就会自动运算、输出相应的结果”。算法通过存储于计算机中的代码和程式,构建起虚拟空间的运行规则,也就是所谓的“代码即法律”。从算法设计者的角度,算法是解决问题的手段;从社会一般人的角度,算法是网络世界的“法律”。只不过这种“法律”并不是

3、基于全体人民的共同意志,它体现的只是掌握算法技术的数字企业的个体意志和私人利益。法律规范由立法机关制定,体现全体人民的民主协商性,而算法自动化决策的技术特征以及互联网企业的强势地位破坏了这一民主价值,以利益最大化为目标的商业主体在算法技术领域中亦贯彻“零和博弈”,罔顾算法使用者基本的权益。算法技术在逐步成为“政府”“市场”以外的“第三只手”影响社会公共领域,其以算法歧视侵蚀用户主体实质平等,以算法自动关联暴露用户主体隐私数据,以算法自动化决策挤压用户主体个人意志。1(一)算法技术损害实质平等算法技术损害实质平等。法律规范是社会公平正义的最后一道防线。一方面,法律规范的公平正义价值体现于法律规范

4、的普适性和一般性,即全体人民都应当以法律作为基本行为规范,法律面前人人平等,任何人都不得有超越宪法和法律的特权;另一方面,法律还体现矫正正义价值,如法律通过对特定场景下相对处于弱势地位的群体倾斜式保护,进而实现实质意义上的平等。而算法技术的运行模式则试图为每一个用户量身打造数字行为规范,建构起一个对不同用户群体加以区别对待的数字规范领域,在其运转过程中刻意忽略人类主观能动性发挥的作用,暗含对数字化用户主体人格尊严的侵害,且该风险隐蔽在技术中立和科学理性的假象当中。例如,在劳动法领域,外卖应用程序通过对配送员的配送时间,配送距离,配送单量进行数据分析,并将交通、环境、地点、天气等因素纳入计算,通

5、过不断压缩配送员的截止时间,使其不断挑战配送速度极限,进而外卖行业交通事故率高居不下。劳动者受制于算法的调度,被迫成为全天候待命的“工具”。掌握算法技术的大型企业为追求经济目标,剥夺劳动者的自主权,罔顾劳动者的基本权利,攫取劳动者的剩余价值,通过掠夺原本处于弱势地位的劳动者的价值以成就企业经济的飞跃,进一步加剧社会分化。算法的技术性特征与传统社会观念、法律原则产生了多重背离,如算法个别规则与法律一般性、普适性原则的背离,算法自动关联和监控功 法制博览 2023 年第 09 期 61 法学理论研究能与传统公私领域边界原则的背离,以及算法自动决策与协商性原则、自愿原则等的背离。2(二)算法技术蚕食

6、公民隐私空间算法设计者打造的“数据化监控网络”加剧了公民隐私权被侵害的风险。算法技术即根植于数据分析,其土壤为无所不包的公民个人信息,包括传统的公民个人信息,例如姓名、年龄、性别、民族、职业、经济状况、家庭住址等,以及随着互联网技术的普及应运而生的个人隐私信息,例如网络浏览记录、购物偏好、人际交往关系谱、定位记录等。网络服务提供者不当攫取用户网络数据,公民个人隐私前所未有地暴露在公众视野中。随着算法技术的智能化,隐私泄露的风险不仅仅发生在数据收集阶段,而且进一步走向数据分析阶段。这就意味着之前未被披露在网络数据的信息,通过深度学习算法对已有数据进行分析整合、数据建模,进而被推理、预测、暴露在网

7、络世界。如美国研究者曾经对 F 公司志愿者用户进行实验,通过对种族、智力、宗教、父母离异、性格等数据进行数据建模,自动化算法在未获取志愿者其他信息的情况下,可以准确预测出该用户是否为同性恋。算法侵权的法律风险高发于互联网领域,当下的互联网平台因海量用户使用、点击、浏览产生大量数据,通过信息分析整合,间接预测和影响公民未来的行为,攫取商业利润,进而控制市场,形成单项的监视资本主义。强大的算力以及自动化决策的隐蔽性,也使政府影响和操纵民意成为可能。行政机关依靠算法、算力和数据三管齐下,精准监控个人行为。如 2013 年棱镜门事件,以算法科技进行全方位监控的幕后机构浮出水面,可怕的不仅是美国对国内外

8、的监控和窃听行为,更是美国国家安全局与部分掌握算法的高科技公司模糊的合作关系,也就是说公权力利用算法将权力大肆扩张,侵犯公民隐私权乃至世界网络安全。人们在享受人工智能所带来的快捷服务时,悚然发现自己一直在互联网的监控下“裸奔”。3又如骇人听闻的某桥分析事件:根据英国某桥分析公司员工 C 某透漏,该公司利用“网络爬虫技术”获取 8000 多万网站用户数据,包括用户的浏览痕迹、行为轨迹、政治倾向,教育背景,通过对海量数据分析,并且进一步自我学习和自我纠错,形成“人格画像”,精准投放具有政治倾向性的“新闻”,左右公众政治选择,干扰美国总统大选。(三)算法技术侵害公民自决权掌握算法的大型资本企业,利用

9、其技术优势与应用优势形成的强势地位乃至于垄断地位,向算法相对人提供电子合同,以便获取相关授权许可,但该类协议往往流于形式上的协商。算法利用其市场优势与技术优势,设定若拒绝签署相关授权协议,则无法使用应用程序的机制,逼迫数字用户让步。首先,数字用户若不“同意”该协议,将无法正常使用应用程序,而数字用户为了不自我隔绝于数字网络之外,只能无条件接收由运营商未经协商、事先拟定的电子协议;其次,该类型电子协议往往被设计得过于冗长和复杂,乃至于即使通篇阅读该协议社会一般人也未必能理解该法律术语背后的意义,这就导致多数用户未经阅读便不假思索地点击“同意”;最后,该类型协议即使事后出现不合理地免除其责任,加重

10、对方责任,排除对方主要的权利等“霸王条款”,维权行为发生在势单力薄的普通用户与互联网龙头企业之间,其经济实力、舆论影响、社会资源相差巨大,往往使个体数字用户的维权之路举步维艰。三、算法权力治理路径之构建(一)技术发展与权益保护相平衡立法机关在制定法律规范时,应当综合考虑平衡各种利益之间的冲突,确定不同法益在不同场景中的优先顺位,同时,具体情况具体分析,在个案适用时结合自由裁量权达到具体案件中各种利益的平衡保护。同样,在算法治理领域,算法设计者制作程序,进而为网站创造巨额商业利润,算法技术理应成为具有智力成果属性的商业秘密,若“一刀切”地强制商业主体公开算法,无疑会使其丧失技术竞争优势。算法治理

11、应平衡公民个人权益保护和算法技术发展,基于此,公民个人权益保护是横亘于算法技术发展始终的“达摩克利斯之剑”,反之,公民个人权益也并非具有无限扩张的特权,其同样不得僭越算法技术平台对于商业秘密的保护。有鉴于此,算法的公开不应当也不可能是绝对公开,只能相对公开。当行政管理主体使用算法进行公共事务管理决策或辅助决策,算法技术实际影响着社会公众,而公开算法又不涉及侵犯商业秘密,行政主体应当尽量采取社会一般人所能理解的方式公开与解释算法。但是,对于纯粹商业性的数字企业所使用的算法,一般不应当强制要求其公开。按照法律无效规则,对掌握算法技术的纯粹商业性数字企业若“一刀切”地采取全面披露规则,将导致承担企业

12、“造血功能”的算法技术暴露在公众视野之下,使得意图实施侵权者只需承担较轻的不利后果,使得窃取他人智慧结晶,以攫取巨额商业利润的行为有可乘之机,变相鼓励企业知识产权侵权“搭便车”,不利于营造良法学理论研究2023 年第 09 期 法制博览 62 好的营商环境和维持稳定的社会秩序。营利性商业主体应适用算法分级分类安全管理制度,即对于不同社会影响力、服务对象、经营领域的商业主体加以区分,采用不同的披露方式、范围、程度。(二)内部监管与外部监管相补充算法侵权往往发生在互联网技术龙头企业与势单力薄的普通用户个人之间,算法环境下的“马太效应”,使得受害者需要付出大量时间、精力和经济成本,以确定冗长的信息流

13、转环节中具体的侵权主体,调查取证数据处理过程中侵权行为的发生,以及证明侵权行为与损害结果之间的因果关系。成本与获益远远不匹配,将导致受害者用户群体压倒性地倾斜于放弃维权,无形中造成公民权益被侵害而无救济的局面。如果监管者无法进入算法内部进行审查,就无法了解造成危害后果的技术原因,难以提出切实有效的算法整改方案,只能在结果端予以形式上的审查,难以对平台起到实质性的内部规制作用。4算法技术监管,其涉及专业技术知识,呈现纵向拓展之势,使得承担监管角色的门槛大幅提高。考虑到个人信息主体理解算法的可能和成本,若对个人信息主体附加额外的学习负担,而并非经济、便捷、合理的权利救济途径,同时也杜绝了正常理性人

14、选择维权的可能性。因此在政府监管和公众监管的同时,理应引入专业、中立的第三方监管机构介入算法治理。算法技术通常是高新科技企业的经济命脉,处于“重量级”商业秘密保护的行列。因此,第三方监督机构人员严格的遴选制度,不仅应当具备相应的专业知识,还应对第三方监管机构人员进行入职前的职业培训,使其遵守职业规范,具备职业道德,严格遵守商业秘密。算法权力监督主体,还可以是中立第三方行业协会、具有专业素质的第三方机构甚至算法技术自身。(三)算法公开与有限披露并重算法权力崛起带来最大的挑战即来源于“算法黑箱”。“黑箱”是控制论中的概念,指的是不能从外部所感知其内部状态的系统,同理,普通民众对于算法技术对个体的影

15、响无从知晓,算法技术的设计者不提供任何解释,不接受质询,不对算法相对人提供救济路径。从当前所使用的主流算法技术来看,即使公布算法技术的所有代码与程式,由于算法技术的专业属性,普通民众无法理解算法如何进行决策,进而对个体施加影响。算法的源代码具备复杂性、迭代性,信息技术行业的发展呈现指数规模而非线性规模的爆炸式增长态势,同样,算法技术更新迭代的速度以指数级增长,一方面,算法技术通过平台应用不断深入嵌入社会公共领域,另一方面,算法技术与普通大众之间存在无法跨越的“专业壁垒”,即使算法技术全面公开也难逃“无效信息”的劫难。因此,算法设计者、控制者不仅应当向用户群体提供影响最终结果的重要因素或事实,而

16、且,应当以社会公众所能理解的方式解释算法。任何算法设计者都有义务向用户公开算法运行的逻辑,允许用户知悉算法如何对社会公共领域以及个人生活领域施加影响,设立及时接收用户意见的信息渠道,保证关于算法运用过程随时接受社会公众的监督和质询。普通民众虽非评估主体,然而民众往往是有效的监督主体,数字企业与数字用户应建立交流渠道,建立有效的申诉救济机制,缩小“算法黑箱”所带来的“信息鸿沟”,使算法技术能够及时改正。算法控制者通过发布责任报告接受社会公众的监督,向社会公众公布算法对个人生活施加的影响,不仅是保护公民基本权利的基本要求,也是算法治理的应有之义,对逃避保护个人信息义务的平台或机构,应建立相应的制度

17、,限制其经营范围、服务对象、商业领域,倒逼个人信息处理者恪守诚实信用原则,严守公民基本权利边界,积极履行社会义务。四、结语算法技术正在广泛渗透于社会公私领域,从新闻投放到智慧城市,从职场背调到生活购物,从投资理财到交通出行,当算法技术和平台应用相结合,并不断渗透和影响我们的日常生活,看似理性和中立的算法技术,暗含“算法歧视”“信息茧房”“算法操纵”“算法黑箱”等技术风险。面对算法技术崛起带来的重重挑战,我们首先应当保持包容和理性的态度给算法技术的发展留下足够的空间,同时也要保持谨慎和理智的态度分析算法技术带来的风险,参考和借鉴算法治理经验,为我国建设有效的算法治理框架做出有益的探索。参考文献1 李牧翰 算法侵权风险下数字用户权益保护法律问题分析 J 大连理工大学学报(社会科学版),2022,43(2):81-872 林洹民 个人对抗商业自动决策算法的私权设计J 清华法学,2020,14(4):125-1393 赵一丁,陈亮 算法权力异化及法律规制 J 云南社会科学,2021(5):123-1324 唐亦可 论人工智能时代算法的法律规制 J 时代法学,2022,20(2):99-106

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服