收藏 分销(赏)

人工智能应用中数据安全的法律规制分析_蔡秉坤.pdf

上传人:自信****多点 文档编号:389573 上传时间:2023-09-13 格式:PDF 页数:8 大小:1.23MB
下载 相关 举报
人工智能应用中数据安全的法律规制分析_蔡秉坤.pdf_第1页
第1页 / 共8页
人工智能应用中数据安全的法律规制分析_蔡秉坤.pdf_第2页
第2页 / 共8页
人工智能应用中数据安全的法律规制分析_蔡秉坤.pdf_第3页
第3页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、45 2023.72023年第7期科技政策与管理人工智能应用中数据安全的法律规制分析一、人工智能与数据安全人工智能技术已经广泛应用到各个领域,深刻影响着国家政治、经济、社会、国防等各个领域的运行模式,已成为世界主要国家谋求新一轮国家科技竞争主导权的关键技术。我国非常重视人工智能发展和数据安全保护,二十届中央国家安全委员会第一次会议强调,要提升网络数据人工智能安全治理水平、推进国家安全法治建设。对人工智能应用中数据安全的法律规制进行分析,为人工智能技术健康发展和保障数据安全提供建议,符合国家安全形势和战略要求。数据、算法、算力是人工智能的驱动力,其中,数据是人工智能的核心,“数据为体,智能为用”

2、。1一方面,数据为人工智能提供学习样本,人工智能的工作原理是基于大数据集和统计数据驱动的模式匹配过程2,用于人工智能机器学习的数据集越丰富,质量越高,机器学习的效果就越好。另一方面,人工智能又提升了数据收集管理能力和数据挖掘利用水平,用户在使用人工智能系统的过程中,通过端口将数据提供给人工智能服务系统,人工智能就可以从庞大的数据集中精准找到目标数据,并对其进行深度挖掘分析,进而从中挖掘出有利用价值的信息,以提供精准服务。3数据安全是人工智能技术安全的关键。为人工智能提供学习样本的数据,可以称为“训练数据”。这些数据是人工智能算法开发者在研发人工智能系统或产品时所赋予的样本数据,其可能存在数据质

3、量安全、数据投毒攻击等风险,从而导致人工智能学习到错误信息,以致人工智能在决策时作出错误判断。3此类数据风险主要源于人工智能内在技术的局限性,具有技术复杂性,并非法律规制所能解决的问题,因此不在笔者的讨论范围之内。人工智能技术滥用其强大的数据收集和数据分析利用能力导致的数据安全风险,远比人们想象的可怕。人工智能技术滥用或不当应用导致的数据安全风险,如数据过度采集、数据歧视、数据滥用、数据垄断蔡秉坤徐小壘兰州大学法学院,甘肃,兰州,730000摘 要:数据是驱动人工智能浪潮全面兴起的基础要素之一,数据安全是人工智能安全的核心。然而,人工智能的高速发展也带来数据安全的风险挑战。文章从个人数据安全风

4、险、企业数据安全风险等方面总结了人工智能应用中存在的数据安全风险,并分析了人工智能应用中数据安全的法律规制,从加快数据安全立法和数据确权、数据安全的“穿透式”监管、数据安全“监管沙箱”、数据安全协同治理等方面提出相关建议。关键词:人工智能;数据安全;数据确权;“穿透式”监管;监管沙箱中图分类号:TP309.2 文献标识码:A DOI:10.19881/ki.1006-3676.2023.07.07作者简介:蔡秉坤,男,1976年生,博士,副教授,研究方向:信托法、公司法。徐小壘(通信作者),女,1997年生,硕士研究生,研究方向:民商法。46 2023.72023年第7期科技政策与管理等数据安

5、全风险及法律规制,是笔者讨论的重点。二、人工智能应用中存在的数据安全风险人工智能被普遍认为是一个能够自主学习的机器或系统,其运行原理是从海量复杂且无序的数据集中,通过算法模型计算出一个结果,作为判断和决策的依据。3数据在人工智能应用中的生命周期,包括数据采集、传输、存储、处理、销毁等环节,各个环节均隐藏了数据安全风险。人工智能领域存在的数据安全风险,主要有以下几种:(一)个人数据安全风险1.个人信息泄露风险目前,人工智能主要应用在智能系统和智能设备两大模块,智能系统包括生物特征识别、智慧城市系统、智能医疗系统等软件系统,智能设备包括智能手环、智能手机、智能扫地机器人等各类智能终端产品。在用户使

6、用这些智能系统和智能产品的同时,人工智能便采集了用户的人脸、指纹、声音、心跳、基因等具有强个人属性的生物特征信息4,甚至在用户不知情的情况下在后台偷偷运行,收集与其所提供的服务无关的数据。3此外,人工智能还可以通过计算、分析、处理收集到的数据,分析用户的心理活动,在用户毫无意识时,获取更多终端用户不会随意透露的隐私数据,甚至还会通过其自带的算法诱导终端用户提供更多隐私数据。5个人数据在人工智能面前一览无余,随着机器学习的不断深化,个人将再无任何隐私和秘密可言。2.数据滥用数据滥用风险主要有两种,其一,在社会消费领域可能会带来差异化定价。其二,在信息传播领域可能会带来“信息茧房”效应。4差异化定

7、价,就是所谓的“大数据杀熟”,利用人工智能对用户消费习惯、兴趣偏好等数据的深度挖掘分析而进行差异化定价,侵害用户的知情权和公平交易权。而“信息茧房”效应是指用户更多接受满足自己偏好的信息和内容,导致社会不同群体的认知鸿沟拉大,个人意志的自由选择受到影响。基于这种数据滥用的个性化内容推荐,甚至会推送虚假政治广告,对选民意识形态和政治观点进行干预和诱导,从而影响政治选举,给国家和社会安全带来严峻挑战。6此外,人工智能终端用户并不能轻易地将操作记录从人工智能设备中完全删除,且大多数用户对于删除操作记录数据并无意识。人工智能通过收集分析这些记录,可以得出相对具体的个人数据信息,而这些个人数据会随着人工

8、智能所有权或使用权的流转而不断流转,其储存的个人数据信息会继续在网络空间中传播和共享。5个人数据如失去控制般在网络中流动、共享,导致个人在网络中处于没有防护的状态。智能系统通过收集个人数据,再分析出有更大利用价值的信息,如购物软件通过分析用户浏览足迹、搜索记录、加购记录等数据,可以得出用户的喜好和消费倾向,进而进行相关产品推送,将用户变成“待割的韭菜”。另外,人工智能终端用户并不会考虑人工智能会将通过各种端口收集到的个人数据传送到哪里。这些数据大多情况下会被传输到云端,从而进行大数据云计算,而不是存储在本地设备中,至于数据上传到云端后究竟去了哪里,便不得而知。由于个人数据被不断收集、分析、流转

9、,数据很有可能被不法分子攫取、利用,侵犯个人隐私权、人身权和财产权。个人数据信息被泄露后,侵权人利用人工智能系统可以轻易分析出特定自然人的画像,甚至能够对特定自然人的心理和行为进行预判,进而实施犯罪活动。3.数据歧视和算法歧视人工智能深度学习的运行模式,是通过模拟人脑的神经元建立神经网络,数据输入后经过算法黑箱输出算法结果,产生人工智能决策。3人工智能算法黑箱具有技术上的复杂性,人工智能算法的设计、开发、应用由不同程序员完成,各个研发主体的工作是编写源程序,即机器可识别的由“0”和“1”组成的代码,而源程序和数据如何在机器内部运算,这是赋予机器源代码的程序员也无法解释的问题。5因此,人工智能系

10、统可能会因为人类无法解释算法黑箱而造成更大的伤害。机器学习存在“算法黑箱”以及不可解释性,导致人工智能技术天然存在内在局限性,人工智能决策偏差难以消除。人工智能在选择和分析数据时,具有特定的价值倾向和价值选择性,其价值偏差可能是赋予其源47 2023.7蔡秉坤,徐小壘.人工智能应用中数据安全的法律规制分析代码的程序员自身的价值选择或价值偏差,也有可能是输入数据偏差所致,如互联网数据收集到的更多是我国经济发达地区、青年网民的数据特征,而边远地区和老年人群的数据特征无法全面覆盖,最终导致人工智能决策缺乏公平性。(二)企业数据安全风险1.数据垄断存在于人工智能领域的企业数据安全风险,最主要的是数据垄

11、断问题。随着互联网和人工智能的发展,数据逐渐资源化、商品化,成为企业重要的生产要素。数据具有巨大的潜力,可以触发更高效的业务运营,现代经济活动、创新、增长都依赖于数据7,企业数据权属问题逐渐显露。企业通过各种人工智能端口收集了大量个人数据,部分企业通过“算法共谋”形成了事实上的垄断状态,导致初创企业和研究机构在算法设计和优化过程中无数据可用,损害了人工智能行业整体的竞争、发展。2.数据利益冲突有学者认为,由于企业通过人工智能端口收集用户个人数据几乎没有成本,却能因此获得巨大经济利益,因此导致了数据收集者和数据提供者之间的利益不平衡。8也有学者认为,企业收集数据并非没有付出成本,数据企业本身收集

12、、存储个人数据也需要付出相应的成本,其需要投入成本研发各种人工智能产品和系统,并向用户提供相应的服务,如百度地图、滴滴等智能软件系统。9因此,企业免费提供其投入大量成本研发的智能产品服务,是其收集、利用个人数据所支付的合理对价,符合公平原则。9以上两种观点的对立,本质是数据权属不明所导致的数据产权争议问题。个人数据商业化利用过程中造成了数据权力异化,企业与企业之间,企业与用户之间的利益冲突无可避免。三、人工智能应用中数据安全的法律规制分析人工智能应用中,固然存在数据安全风险问题,人工智能的发展必然会产生安全隐患,但是人们不能为了保护数据安全而因噎废食,从而选择不使用或者不发展人工智能,这并不能

13、从根本上解决问题,并且谁都无法忽视人工智能创造的巨大经济价值和便利。为了从根本上解决人工智能创造的经济价值和数据安全风险之间的矛盾,国内外的法学家们试图利用法律对其进行规制和平衡,但是这些法律路径并不能完全适用人工智能领域的数据保护,都或多或少存在局限性。(一)个人数据安全的法律规制人工智能领域的个人数据保护沿袭了一般数据保护的路径,即个人数据的私法保护,主要有隐私权路径保护和财产权路径保护。1.隐私权规制采用不同的法律保护路径,那么其保护的方式也自然不同。个人数据隐私权保护路径,主要是将个人数据纳入民法侵权责任的保护范围,通过侵权诉讼解决人工智能领域个人数据信息被侵犯的问题。1由于个人数据可

14、以识别出特定自然人的身份信息,从而确定特定的自然人,并且人工智能可以通过个人数据窥探个人隐私。因此,人们自然而然想到通过隐私权这一绝对的人身权利保护个人数据这一法律路径。9但是此路径有其天然的弊端,并不适用于人工智能领域的个人数据保护。首先,我国民法典尚未将个人数据进行确权,而是将其视为防御性利益予以保护10,因为并没有明确的侵权客体,因此难以将其纳入侵权法的规制之中。如果将个人数据权益纳入隐私权这一人身权利之中,有可能通过传统的隐私权侵权进行法律规制,如将可以识别自然人身份信息的个人数据纳入隐私权保护之中。但人工智能领域的有些数据并不涉及个人身份信息,如经过脱敏处理的匿名化的大数据,收集、分

15、析、存储、披露这些数据,不会直接对个人隐私或其他相关权利造成侵害,因此并不完全适用隐私权的保护。11其次,侵权主体难以确认。在传统的隐私权侵权中,侵犯隐私权的主体具有单一性或特定性,但是在人工智能的算法黑箱中,侵犯隐私权的过程具有复杂性、系统性,隐私权受侵害的威胁常常涉及多个主体11,难以辨认真正的侵权主体,也就无法确认侵权行为与损害后果之间的因果关系,以及侵权主体的主观过错。因此,不满足侵权责任的构成要件,隐私权的保护路径在人工智能领域难以适用。48 2023.72023年第7期科技政策与管理再次,欧盟通用数据保护条例认为,个人数据隐私权保护的重点是通过明确个人对数据信息拥有一定的权利(如收

16、集数据的知情同意权、数据删除权、限制处理权等),从而增强个人对其个人数据的控制能力,实现对个人隐私的保护。12个人数据隐私权保护,通过明确个人权利确实起到了保护个人数据隐私安全的作用,但是其对个人数据存在保护过度的风险。有经济分析研究表明,通用数据保护条例并没有充分实现个人隐私保护和数字经济发展之间的平衡,总体而言,该条例的实施对欧盟数字经济的影响是负面的。12-13最后,中华人民共和国个人信息保护法明确规定,处理个人信息应当取得个人同意,基于个人同意处理个人信息的,个人有权撤回其同意意在赋予个人包括知情权、决定权、撤回权、更正权、删除权等在内的多项个人信息权。在一般的个人信息保护中,这些规定

17、可能起到一定的规制作用,但在人工智能领域,实现以上个人信息权并不现实。以知情权为例,在使用人工智能时,不可能每一步操作都经过个人的知情同意,即使有些人工智能系统在用户使用前设有隐私声明或用户协议,那也只是高度格式化的隐私条款,“事实上几乎没有人有时间、能力或决心浏览一遍人工智能应用中复杂的条款和知情同意的条件,更不用说要对每次给定的同意书都进行浏览。”14用户面临要么选择全部拒绝而无法使用人工智能,要么选择全部同意以使用其提供的便利服务的抉择。从这个角度上讲,知情同意权和格式化的隐私条款对于个人来说,几乎“形同虚设”,决定权、撤回权、更正权和删除权同时也难以实现。2.财产权规制有学者提出,应当

18、授予数据主体数据所有权,通过确立个人拥有对个人数据的财产权利来保护数据利益。15个人数据财产权保护是将个人数据设想成一种对抗不特定第三人的个人数据自决权或财产权,也就是说,一切获得他人个人数据的行为,都必须事先征得数据主体的同意,未经数据主体同意,一切获取他人个人数据的行为都是违法行为。11这种观点认为,数据是现代社会中的重要生产要素,数据蕴藏着巨大的经济价值,而数据本身来源于公民个人,数字企业获得数据是由于公民个人的授权,公民个人天然有权决定自己的个人数据能否以及如何被他人获取和利用。个人数据财产化之后,公民个人可以自由选择在数据市场中将自己的个人数据当作商品进行交易,从而有利于数据流通,促

19、进数据市场繁荣。然而,在人工智能领域和大数据技术下,以财产权保护个人数据和规范其使用,并不能实现其制度目的。理由如下:首先,个人数据并非所有权的客体物。传统民法中的“物”具有可控性,但是数据天然具有可获得性、非排他性和流通性,无法为个人所独占和控制。公民个人无时无刻不在产生个人数据,包括出行轨迹、上网浏览记录、网购记录等各种数据信息,生活在大数据时代,公民个人不可能不产生数据,而且也不可能时时刻刻都关注自己的个人数据信息的流转,因此根本不可能完全控制数据。此外,数据虽然具有无形性,但是并不构成“无形物”,因为数据本身并不像智力成果那样具有信息内容的专属性和垄断性,数据必须要流通和共享。数据也不

20、像电力、热力等无形物一样,本质上是有体财产的延伸,属于有体财产的范围。16其次,个人数据并不具有财产性。在人工智能大数据领域,只有收集足够多的数据,并经过深度分析处理才能产生价值,单独交易个人数据几乎没有市场价值,也无法进行单独的个人数据财产权交易。在经济学上,产权的概念仅仅针对有价值的稀缺物品而言,因为稀缺才有产权和交易的需要,而个人数据就像阳光和空气一样充足,没有竞争性也不需要产权制度来规范其使用。17最后,在现代个人数据隐私泄露事件层出不穷的背景下,并非所有数据主体都愿意在公开的数据市场中交易其个人数据,市场并不是万能的,数据市场也一样,如果数据主体不愿再交易其个人数据,那么数据市场就会

21、面临失灵的危险。此外,赋予个人数据财产权,也就是将数据的控制权交到数据主体(个人)手上,容易导致数据保护过度,人工智能等数字企业收集和使用个人数据的成本将会大幅提升,从而打击数字企业乃至整个数据产业的积极性,不利于人工智能等数据企业的创新与发展。49 2023.7蔡秉坤,徐小壘.人工智能应用中数据安全的法律规制分析(二)企业数据安全的法律规制针对人工智能领域企业数据面临的风险,现阶段主要有 中华人民共和国著作权法(简称 著作权法)和中华人民共和国反不正当竞争法(简称反不正当竞争法)两种法律路径保护。1.著作权法规制数据和知识产权所保护的智力成果都具有无形性的特点,数据与知识产权客体在性质上具有

22、内在的相似性,知识产权的调整对象主要来自智力成果作为一种特定信息所具有的共享性18,而数据也天然具有共享性。著作权法第二章第二节第十五条规定,“汇编若干作品、作品的片段或者不构成作品的数据或者其他材料,对其内容的选择或者编排体现独创性的作品,为汇编作品,其著作权由汇编人享有”。有学者提出,将企业数据纳入著作权法关于汇编作品的保护范围,该观点认为,数字企业形成的数据合集属于数据汇编作品而享有著作权,但是汇编作品著作权保护并不完全适应人工智能领域的企业大数据合集的保护。19汇编作品受著作权保护的前提首先必须是作品,而作品要求具有独创性,法律保护的是独创性而非数据和事实本身,因此汇编作品著作权并不能

23、保护所有企业数据集合,而只能保护其中构成作品且具有独创性贡献的部分。19在人工智能领域的大部分数据,只是单纯收集个人数据而形成数据合集,并不具有独创性,不能为著作权法所保护。只有经过人工智能对原始数据进行挑选和算法计算后,所产生的具有独创性的选择与编排的数据,才符合著作权的汇编作品保护的要求。此外,著作权保护具有思想和表达二分的特点,著作权只保护具有独创性的表达而不保护思想,为了促进社会进步和发展,思想由全人类共享。所以,著作权保护的是汇编时的独创性而非数据本身,著作权并不能有效阻止数据本身被复制和使用,而其他数字企业通过爬虫复制数据信息就能达到目的,其需要的往往是数据本身。在实践中,著作权法

24、对企业汇编数据的独创性判断缺乏统一的标准和依据,企业汇编数据的独创性难以认定19,这也是著作权法在人工智能领域数据保护中的局限性。2.反不正当竞争法规制针对著作权法对企业数据保护不足的问题,有学者提出通过反不正当竞争法中的侵犯商业秘密的条款对其进行保护。20在司法实践中也已经出现侵犯数据商业秘密的不正当竞争纠纷案例。根据反不正当竞争法第九条规定:“商业秘密,是指不为公众所知悉、具有商业价值并经权利人采取相应保密措施的技术信息、经营信息等商业信息。”形成人工智能领域的数据集合,需要经过数据筛选、补充、格式调整、数据删减或加密等措施,并因此付出巨大成本,同时能为权利人带来巨大经济利益,人工智能数据

25、的原始收集者往往采取技术措施阻止他方获取自身的数据。从整体上来看,人工智能领域的数据合集符合法律对商业秘密的界定,但是这并不能说明反不正当竞争法的商业秘密保护条款是对数据的完美保护机制。是否能够认定人工智能领域中的数据集合属于商业秘密,这本身就具有一定的可探讨性。反对观点认为,数据集合中的数据大多来自公共领域,任何人均可从公开渠道直接获取,所以将公众所知的数据汇编后形成的数据集合认定为商业秘密是荒谬的。21支持观点则认为,只要汇编数据作为一个整体无法轻易从公共领域中获取,就依然具备商业秘密性,成为商业秘密。22学界通说认为,商业秘密属于财产性权利22,如果认定人工智能领域的数据集合属于商业秘密

26、,那就应当承认人工智能数字企业对数据集合享有财产性权利,主要是享有数据集合的所有权,至于是否能够认定数字企业享有数据集合的所有权,也仍待探讨。有观点认为,数字企业对数据集合天然享有所有权,就像因盖房屋而原始获得房屋的所有权一样9,但是这样不可避免会导致很多数据集合无法被公众获取,从而加剧数据垄断。四、人工智能应用中数据安全的法律规制建议现有的数据保护的法律路径,大都不是专为保护人工智能应用中的数据安全而设定的,因此在适用过程中有些牵强。而且,现有数据隐私权、财产权和知识产权保护路径的不适用,导致人工智能应用中的数据安全面临着保护不足和保护过度的两难。因此,笔者认为,50 2023.72023年

27、第7期科技政策与管理简单将数据权益纳入某一现行权利体系之中,并不能一劳永逸地解决人工智能数据安全问题,应具体问题具体分析,对数据进行场景化保护。基于以上分析,笔者提出以下 4 个方面的建议:(一)加快数据安全立法和数据确权首先,现有的法律制度并不能完美解决人工智能应用数据安全规制的实践问题,数据市场交易的稳定性、匿名化处理的数据信息、非原创数据集合保护等问题仍处于法律制度真空状态。且各种法律规制制度呈现碎片化、分散化的状态,缺少体系性。因此,应加快数据安全立法,构建新型的体系化的数据法才是破解问题的根本之道。其次,数据安全立法首要应正视数据私法确权问题。数据权属问题是制约人工智能等新兴技术发展

28、的难题,加快数据确权、厘清数据权属关系对于保护人工智能应用中的数据安全至关重要。我国已在数据安全、网络安全和个人信息保护层面出台了保护数据安全的相关法律法规,但数据权属界定问题尚不清晰23,应在立法层面分类确立个人数据权、企业数据权和公共数据权。数据是复合型权益,在立法确权过程中应以人格权保护优先、以价值贡献为重要依据、个人权益保护和产业发展利益平衡为原则24,以建立物权、知识产权之外的新型数据财产权为基础,其上设置数据来源者权、数据持有者权、数据生产者权等子权利,场景化分类确定数据权利,对数据资源进行统一规制,逐步形成数据权利基础框架。(二)数据安全的“穿透式”监管“穿透式”监管是金融科技领

29、域监管的重要方式,可以借鉴“穿透式”监管模式到一般性的人工智能应用的数据安全规制中。“穿透”是指刺破事物的面纱以发现其本质的手段,通过对人工智能应用的主体穿透、产品属性穿透、嵌套层级穿透等技术手段,来分析人工智能应用中数据安全风险的法律本质25,找到数据安全风险的本质与法律规范之间的连接点,从而决定具体适用何种法律规范。例如,数字企业非法爬取其他企业的数据,“穿透”其本质构成不正当竞争,相应地,则可利用反不正当竞争法来维护数字市场的公平竞争环境。(三)数据安全“监管沙箱”对人工智能应用中的数据安全进行规制,往往面临着发展与规范的价值平衡问题。对其规制过于严格,导致对数据过度保护,从而产生人工智

30、能领域的“寒蝉效应”,扭曲数据收集和数据驱动的创新,从长远来看,会阻碍人工智能的发展,降低数据共享的社会效益。对其规制过于宽松,则会导致数据安全风险泛滥,数据相关权益受到侵害,降低公众对人工智能技术发展的信心。因此,不妨转变人工智能应用中数据安全的监管理念,进行包容性监管。“监管沙箱”可以为新型的人工智能产品和技术提供一个暂不受法律规制的“安全区”,创造一个安全的测试环境,以便人工智能技术试错和完善。26将数据安全风险束缚在沙箱内,测试人工智能产品和服务中数据安全风险和化解方案,若测试结果表明其数据安全风险严重危害权利人的利益,且无法有效化解风险,那么该人工智能产品或服务将无法投入市场。在沙箱

31、测试过程中,对测试的客户提供损失补偿等保护性措施27,保护权利人利益同时鼓励人工智能行业大胆创新。(四)数据安全协同治理对人工智能应用中数据安全的治理,并不是一蹴而就的,也并非单纯依靠一方力量所能完成的,需要聚集多方治理力量,协同发挥作用,共同实现对人工智能应用中数据安全的治理。应构建全国信息资源共享体系,实现不同法律部门间的协同治理,如私法规制协同经济法、行政法等公法规制,不同司法机关之间、不同行政部门之间协同治理,以及鼓励社会公众参与人工智能数据安全治理,鼓励人工智能研发企业提升自治力度,承担起社会责任。加强政企合作,加快公共服务领域数据集中和共享,与企业积累的社会数据进行平台对接,提高社

32、会协同治理水平。51 2023.7蔡秉坤,徐小壘.人工智能应用中数据安全的法律规制分析注释:1.中华人民共和国民法典人格权编理解与适用指出“民法典侵权责任编调整因侵害民事权益产生的民事关系,包括侵害人格权。”王利明教授指出,人格权请求权适用于未构成侵权的情形,如更正请求权、删除请求权、回应权(参见王利明:论人格请求权与侵权损害赔偿请求权的分离,载中国法学2019年第1期,第224-225页)。因此,笔者认为当个人数据涉及个人隐私时,侵犯个人数据即侵犯个人隐私权,符合侵权责任的构成要件(过错、侵权行为、因果关系、损害),因而适用侵权请求权要求侵权人承担损害赔偿责任。参考文献:1 林梓瀚,郭丰.人

33、工智能时代我国数据安全立法现状与影响研究J.互联网天地,2020(09):20-25.2 Thomas D G,Damon J W.Show Us the Data:Privacy,Explainability,and Why the Law Cant Have BothJ.George Washington Law Review,2020(06):1350.3 林伟.人工智能数据安全风险及应对J.情报杂志,2022(10):88,105-111.4 中国信息通信研究院安全研究所.人工智能数据安全白皮书(2019)R.北京:中国信息通信研究院安全研究所,2019.5 祝高峰.论人工智能领域个人

34、信息安全法律保护J.重庆大学学报(社会科学版),2020(04):150-160.6 杨洸.数字媒体时代的数据滥用:成因、影响与对策J.中国出版,2020(12):3-8.7 Burri M.Understanding the Implications of Big Data and Big Data Analytics for Competition Law:An Attempt for A PrimerJ.New Developments in Competition Law and Economics,2019:241-263.8 Malgieri G,Custers B.Prcing

35、Privacy-the Right to Know the Value of Your Personal DataJ.Computer LawSecurity Review,2018(02):289-303.9 程啸.论大数据时代的个人数据权利J.中国社会科学,2018(03):102-122,207-208.10 李媛.民法典为个人信息保护确立方向N.中国社会科学报,2020-07-22(A04).11 丁晓东.个人信息私法保护的困境与出路J.法学研究,2018(06):194-206.12 唐要家.中国个人隐私数据保护的模式选择与监管体制J.理论学刊,2021(01):69-77.13 C

36、hivot E,Castro D,Chivot E,et al.What the Evidence Shows about the Impact of the GDPR After One YearEB/OL.(2019-06-17)2023-07-02.https:/www2.datainnovation.org/2019-gdpr-one-year.pdf.14 Richards N M,King J H.Big Data EthicsJ.Wake Forest Law Review,2014(49):393.52 2023.72023年第7期科技政策与管理15 刘德良.个人信息的财产权保

37、护J.法学研究,2007(03):80-91.16 梅夏英.数据的法律属性及其民法定位J.中国社会科学,2016(09):164-183,209.17 吴伟光.大数据技术下个人数据信息私权保护论批判J.政治与法律,2016(07):116-132.18 郝思洋.知识产权视角下数据财产的制度选项J.知识产权,2019(09):45-60.19 徐实.企业数据保护的知识产权路径及其突破J.东方法学,2018(05):55-62.20 杨雄文,黄苑辉.论大数据的商业秘密保护以新浪微博诉脉脉不正当竞争案为视角J.重庆工商大学学报(社会科学版),2019(04):138-145.21 芮文彪,李国泉,杨

38、馥宇.数据信息的知识产权保护模式探析J.电子知识产权,2015(04):97.22 崔国斌.大数据有限排他权的基础理论J.法学研究,2019(05):3-24.23 韦苇,任锦鸾,李文姬.基于国际比较的数据治理体系及优化策略J.科技智囊,2022(07):1-7.24 国务院发展研究中心创新发展研究部.数字化转型:发展与政策M.中国发展出版社,2022:111-130.25 叶林,吴烨.金融市场的“穿透式”监管论纲J.法学,2017(12):12-21.26 郭金良.我国智能投资顾问发展的法律挑战及其监管应对J.江海学刊,2019(06):172-178,255.27 柴瑞娟.监管沙箱的域外经

39、验及其启示J.法学,2017(08):27-40.Analysis of Legal Regulations on Data Security in Artificial Intelligence ApplicationsCai Bingkun Xu XiaoleiCai Bingkun Xu Xiaolei(School of Law,Lanzhou University,Gansu,Lanzhou,730000)Abstract:Abstract:Data is one of the basic elements driving the full rise of artificial in

40、telligence wave,and data security is the core of artificial intelligence security.However,the rapid development of artificial intelligence also brings the risk challenge of data security.The article summarizes the data security risks existing in the application of artificial intelligence from the as

41、pects of personal data security risks and enterprise data security risks,and analyzes the legal regulations of data security in the application of artificial intelligence,and puts forward relevant suggestions from the aspects of accelerating data security legislation and validation,“penetrating”supervision of data security,“regulatory sandbox”of data security,and collaborative governance of data security.Key words:Key words:Artificial intelligence;Data security;Data validation;“Penetrating”supervision;Regulatory sandbox

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服