ImageVerifierCode 换一换
格式:PDF , 页数:14 ,大小:12.03MB ,
资源ID:2499535      下载积分:10 金币
验证码下载
登录下载
邮箱/手机:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/2499535.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  
声明  |  会员权益     获赠5币     写作写作

1、填表:    下载求助     索取发票    退款申请
2、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
3、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
4、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
5、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
6、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
7、本文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。

注意事项

本文(论人工智能透明度原则的法治化实现.pdf)为本站上传会员【自信****多点】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4008-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

论人工智能透明度原则的法治化实现.pdf

1、Apr.10,2024Zheng Fa LunCongNo.2政法论丛第2 期2024年4月【文章编号】1 0 0 2 6 2 7 4(2 0 2 4)0 2 1 2 41 4论人工智能透明度原则的法治化实现*张永忠(华南师范大学法学院、人工智能法律应用重点实验室,广东广州,5 1 0 0 0 6)【内容摘要】随人工智能应用范围不断扩大,透明度原则成为破解“算法黑箱”难题的钥匙。透明度原则包括形式透明和实质透明。形式透明是对人工智能基础信息的披露,使人工智能的部署使用处于非秘密状态。实质透明与人工智能的可解释性息息相关,强调对披露信息以可被理解的方式进行有意义解释,从而打破知识壁垒,使相关信息

2、实现真正可知。透明度原则应在法治化实现上进行精细考量:在考虑现有技术条件的基础上,有必要根据监管机关和社会公众的能力不同有区别地对披露和解释的信息内容提出义务要求,并针对不同人工智能的风险程度采取分级分类分场景的执行标准,从保护用户与公众知情权行使、确保国家监管权落实两方面推动透明度原则实现【关键词】人工智能治理透明度原则披露可解释性法治化【中图分类号】DFO-05【文献标识码】A引言人工智能广泛应用于经济、政治、社会及文化等领域,深度嵌人人类生活的方方面面,不断影响和发展着人工智能与人类之间的交互模式。在带来经济效率、社会福利和生活便利的同时,也产生负面的影响,成为影响社会公平稳定、损害人类

3、福祉的新危险源。例如,谷歌的照片自动识别功能出现种族歧视、1 美国普林斯顿评论对亚洲社区收取更高SAT备考辅导费、【2 1 美国阿肯色州医保系统中错误代码导致部分公民的福利申请被错误削减或驳回,3 p64以及新媒体软件利用对客户信息的收集并运用算法分析出用户的偏好,从而不断推送相同类型信息造成信息“茧房”或制造大量的大数据“杀熟”情况等。人工智能在海量数据和强大算力的支持下,依据严密的算法逻辑,推演生成用户所直接接触的结果。其中,数据集是否完整或具代表性,算法是否合理、公平、严谨、可靠,直接影响着人工智能推演结果的质量。但由于人工智能运行机制的复杂性、技术性和不透明性使得国际社会和主权国家出现

4、应对新技术的能力不足,在现有制度基础上难以对算法进行有效监管。面对日益攀升的人工智能治理压力,世界各国积极探索人工智能法律规制的共识和方法,而打破“算法黑箱”成为国际上积极应对人工智能挑战的主要出发点和重要着力点。首届全球人工智能安全峰会签署的布莱切利宣言强调人工智能治理需要解决“透明度与可解释性”问题。美国在算法问责法案(2 0 2 2)中对法案所涵盖的实体提出了透明度义务。欧盟在就机器人民事法律规则向欧盟委员会提出立法建议的报告草案可信赖人工智能伦理指南等文件中明确强调透明度原则的重要性,提出透明性是实现可信赖人工智能的要素之一,并在数据与人工智能立法中确立具体的规范,例如,通用数据保护条

5、例要求数据处理者要以透明的方式处理个人数据,向数据主体提供法定信息,2 0 2 3 年人工智能法案与2 0 2 1 年版相比,充实了透明度原则的具体要求。在我国,现有的立法文件也体现了对人工智能决策和算法透明度问题的关注:个人信息保护法规定了“利用个人信息进行自动化决策,要保证决策的透明度和结果公平、公正”,生成式人工智能服务管理暂行办法(下文称暂行办法)第4条第5 款规定“基于服务类型特点,采取有效措施,提升生成式*基金项目:2 0 2 3 年度教育部人文社会科学研究一般项目信用评价算法审计制度构建研究(编号:2 3 YJAZH208)的阶段性研究成果作者简介:张永忠(1 9 7 8-),男

6、,广东饶平人,管理学博士,华南师范大学法学院教授、博士生导师,研究方向为经济法、信息通信法学。张永忠:论人秀明度原则的法治化实现125第2 期人工智能服务的透明度,提高生成内容的准确性和可靠性。”可以说,我国也逐步确立透明度原则在人工智能治理中的地位和作用。目前,业界和学界对于人工智能治理透明度原则的讨论尚未达成有效共识。何为透明度原则?如何在实践中发挥透明度原则在人工智能治理方面的规范作用?这些问题成为呕待认真研究和有效破解的法律课题。鉴此,笔者将在明确透明度原则规范含义的基础上,对该原则实现过程中复杂技术条件下的主体能力需求回应性、具体场景下的执行标准,知情权与监督权有效运作条件、方式等提

7、出法治化设想一、披露与解释是人工智能透明度原则的规范要求透明度原则并非人工智能治理领域所独有。透明度原来用于描述或评价物质可透光性的物理属性。如今,透明度原则已较长时间运用于管理、金融、行政等领域。尽管不同领域对于透明度原则的定义存在差异,但“他们都被不约而同的视为一种不言自明的好处”4:“经济学家认为透明度是最优市场的先决条件,政治学家将其概念化政治参与的先决条件,法律学者强调它是行政合法性的先决条件”5 p11。学者普遍认为,透明度与信息有关,其被视为信息共享的关键因素,6 1 7 8 在促进公众信任上具有积极作用。7 p269这种对产生信任的促进作用通过一定的逻辑推理得出:基于“真理与事

8、实相符”8 的认识论假设,由“一定的逻辑链驱动:观察产生见解”9 9 7 4在信息披露、公开等共享的前提下,通过对相关信息的“观察”,形成对某事物或某行为的正确认识和判断。这种信息的分享与可获得性即是一种透明,它首先解决的是信息流动、沟通过程中的不对称性。透明度原则运用于人工智能领域,在信息共享上破解了人工智能系统因专业性和不透明性所带来的国家和社会难以对其进行有效监管和问责的困境,正成为指导人工智能开发设计、规范应用、评价监管的重要原则并发挥积极作用。一方面,透明度原则通过人工智能的信息共享,促进了用户、社会对人工智能的运作原理和功能效用的理性感知或认知,从而建立起人与智能科技之间的正常交互

9、关系,最终产生信任与认同并能够接受复杂智能系统的创新技术。另一方面,透明度原则使得算法黑箱得到遏制,促使外部监管成为可能,在监管问责之下能够倒逼人工智能开发、应用、运营和管理走向数据与算法的合规,进一步提升人工智能系统的可控、可信程度,最大程度减少或避免人工智能在实践中运用不断出现的歧视、不公、失控等负面结果。“智能算法的透明性涉及人工智能伦理原则和规制最基本的问题”。【1 0 p90随着人工智能发展及其治理实践的展开,透明度原则在治理体系的基础性价值越发凸显。在实践中发挥透明度原则的价值,需要准确理解和把握透明度原则的规范要求。遗憾的是,理论界对于人工智能透明度原则的内涵尚未形成共识。这一状

10、况也导致了现有立法对人工智能的透明度原则鲜有明确具体的界定。例如,我国互联网信息服务算法推荐管理规定(下文称算法推荐管理规定)第12条中明确规定,“鼓励算法推荐服务提供者优化检索、排序、选择、推送、展示等规则的透明度和可解释性”。这里强调了人工智能算法规则的透明度,并把透明度和可解释性视为两个独立且并列的概念。而欧盟新近通过的人工智能法案则认为“透明度原则是指人工智能系统的开发和使用方式应允许适当的可追溯性和可解释性”,将人工智能的可解释性视为透明度原则应有内容。上述规定的差异在一定程度上揭示了当前对透明度原则的认知分歧。实际上,准确理解人工智能透明度原则,应置于技术与人类社会系统之中,通过把

11、握技术透明与社会需求的关系,还原实现透明度原则价值功能的基本规范要求。诚然,就透明度原则的规范价值来看,它所要求的不仅仅是一种简单的信息传递的清晰状态,而是通过观察和了解从而实现一定形式的控制。9 p974与其他领域不同,人工智能的相关信息是由专业的计算机语言组成,除专业人士外,对其进行“观察”并无法形成正确的认识和判断,更进一步影响到理性选择的做出。换言之,人工智能内部技术信息的披露看似使得人工智能系统变得透明,但由于信息复杂且具有极高的专业性,实现理解需具备一定的知识储备,若是对人工智能系统的相关信息不经转化直接以计算机语言进行披露,信息的专业性会形成知识壁垒阻碍非专业人士对智能系统的认识

12、,实质上仍未打破“算法黑箱”。人工智能系统相关信息的专业性与社会公众的理解力之间存在“鸿沟”,解决这一“鸿沟”成为透明度原则在人工智能领域发挥价值的前提。跨越理解“鸿沟”的桥梁是将相关信息通过一定的方式转译为与社会公众理解力匹配的表达,也即人工智能领域2024年政法论丛126透明度原则的实现需要对相关专业信息进行解释。人工智能的解释性要求正是满足包括具有一般知识能力的普通用户在内的社会公众、合作伙伴、监管部门等不同受众群体对人工智能系统的信息可获取的需求,体现了透明度原则在法价值层面适应不同受众群体(特别是非专业人士)需要的主客观统一性属性。综上,人工智能透明度原则要求智能系统对外具有可见性、

13、可知性,而要真正发挥其破解“算法黑箱”作用,人工智能透明度原则不能只是智能系统体现自身意愿的单向度的任意信息披露,换句话说,透明度原则具有信息披露的形式透明要求,更需具有面对不同受众可解释性需求的实质规范内容。形式透明是指人工智能透明度的义务主体通过采取多种措施实现信息的公开,包括但不限于用户与人工智能的交互提示、人工智能生成物的标识以及将系统的设计目的、训练数据、算法模型等相关信息进行披露,从而使人工智能在表面上具有透明性,能够被人类所感知和观察。根据披露信息的深度不同,又可将形式透明分为浅层披露和深层披露。浅层披露主要是提示、告知用户其在与人工智能进行交互或该决策、结果由人工智能自动生成以

14、及对人工智能生成物进行标识。浅层披露是一种对用户的提示,更侧重于面向用户的“界面”公开,不涉及系统内部结构及自动化决策原理,主要目的是使用户知悉其正在使用的产品或服务为人工智能所提供,或某一作品或内容为人工智能生成物。我国个人信息保护法暂行办法互联网信息服务深度合成管理规定(下文称深度合成管理规定)算法推荐管理规定均有对人工智能系统浅层披露作出明确规定。深层披露是对人工智能系统的研发、部署和运管主体,设计理念与基础原理,系统性能与安全性等基础信息的对外信息公开。现阶段,人工智能的深层披露包括基于商业需要的信息公开和合乎监管目的需要的信息公开,通常,相关主体根据有关部门指引提交的信息备案已经成为

15、深层披露主要的实现方式。不管是浅层披露还是深层披露,人工智能的形式透明往往不涉及艰涩难懂的专业术语或者计算机代码,更不涉及到企业的技术方案等商业秘密,不存在描述和表达上的不可理解问题。实质透明是指在人工智能形式信息披露的基础上,进一步以信息接收者能够理解的方式对该信息进行有意义的解释。相比形式透明,实质透明旨在通过简明易懂的语言向不同受众描述和展示人工智能系统如何一般工作,回答系统为何做出具体的某一决策。此时,人工智能应当具有可解释性。就模型性能解释的角度来看,人工智能的可解释性既包括使人工智能系统原模型具有可理解性(此时的可解释性英文为interpretability),还包括原模型虽不具有

16、可理解性但可通过解释使得模型能够为人所理解(此时的可解释性英文为explainability)。从解释的目的出发,前者是指为了在无需了解输人数据与输出结果之间的因果关系的前提下认识到系统的机理,即系统是如何工作的;而后者则在前者的基础上,要求厘清系统行为的原因。1 1 换言之,可解释的人工智能要求提供了必要的技术模型及其运作方案来解释导致系统做出特定决定的过程和缘由。可见,实质透明强调的是“有意义”的解释,这不仅需要对人工智能系统的内部数据,模型类型、结构与训练,自动化决策的原理、逻辑和方案等进行披露,而且信息披露的效果是让信息接受者最终可感知、可理解。现实中,因解释的主体、受众、场景和目的不

17、同,实质透明下信息披露在内容和形式上也有不同要求。例如,我国暂行办法第十九条、深度合成管理规定第二十一条以及算法推荐管理规定第二十八条均规定了有关主管部门可以依职权对人工智能开展监督检查,服务提供者和技术支持者负有配合义务,需按要求对相关信息进行说明。在面向国家机关的监管解释时,人工智能系统的提供者和使用者对被问询系统的相关信息应进行披露说明,主要回答的是人工智能系统如何工作的问题,但在特殊情形下,面向国家机关的解释内容需包括系统特定决策的做出原因。面向社会公众的解释可根据解释时间和内容不同分为事前解释和事后解释。事前解释是指在人工智能具体决策作出前,将人工智能系统的相关信息如设计目的、运用场

18、景、决策的主要影响因素、可能存在的不良影响或风险等以能为公众所理解的表达予以公开。这种解释是一种普遍的,不具有针对性的解释,其主要通过简明的信息披露,回答系统是如何工作这一问题从而使公众在使用前或权益受影响前对该人工智能系统形成概括性认识。事后解释是指在人工智能系统作出具体决策后,针对该决策作出的缘由进行解释,包括运用的具体逻辑、具体参数的权张永忠:论秀明度原则的法治化实现127第2 期重等。与事前解释相比,事后解释更具有针对性,主要围绕影响具体决策作出的相关信息进行解释,目的是为了使相关用户能够理解决策作出的理由,判断是否存在歧视或不公等问题。两种解释除解释的时间点、侧重点不同外,作出解释的

19、主体可能存在差异。随着人工智能行业的发展,人工智能系统的开发和使用出现分离,也即运用人工智能系统作出决策的主体不一定是该系统的开发者。人工智能系统从设计到最终影响用户之间的链条越来越长,涉及的主体越来越多,需要确认何者为合适的解释义务主体。笔者认为,考虑到解释内容的特性,由于事前解释所涵盖的内容是人工智能系统所固有的基本信息,此时特定系统的开发者应为解释义务主体,而事后解释是系统运用于实践后产生的,其内容涉及具体输人数据和具体参数的权重等,此时由系统的使用营运者来进行解释更为合适。同时由于系统信息的专业性,开发者对事后解释应当提供必要的帮助。当然,这种义务主体的区分是建立在人工智能系统的开发与

20、使用分离的前提下,若是系统的开发者与使用运营者均为同一主体,则无所谓区分问题,事前和事后解释的主体均为系统的提供者。形式透明侧重对人工智能系统相关基本信息的披露,而唯有对披露信息进行必要解释才能真正实现透明度原则,发挥透明度原则在人工智能治理上的规范价值和积极意义。随着人工智能治理实践的推进,人工智能系统的可解释性已成为反映和衡量系统的透明度的重要标准,人工智能的信息公开与可解释也逐步作为一个整体被强调,例如OECD等国际组织将透明度和可解释性作为人工智能开发的核心原则之一,是人工智能提供者和使用者的义务,两者共同构成了透明度原则的实现方式和义务内容。二、人工智能透明度原则受限于技术水平与主体

21、能力确立和推行透明度原则旨在构建人工智能系统应用的良好创新生态,减少甚至是避免系统带来的歧视或不公。人工智能的透明度在现实中能否完全彻底实现,将透明度原则运用于人工智能领域是否会阻碍技术的创新与发展,影响利益相关者的合法权益呢?回答这些问题,有利于理清人工智能透明度原则的适用空间和作用强度,进而在科学性和合理性上对透明度原则的法治化实现有重要影响。人工智能透明度原则既是技术规范,也是社会规范,透明度原则法治化关系到人与智能系统互动关系以及社会信息结构的规范建构,必须在科技发展与法律规范的多元价值权衡基础上,在系统控制者与信息受众的主体之间实现利益平衡。其具体原因如下:首先,现有技术无法支持人工

22、智能透明度原则要求的完全实现。随着ChatGPT等生成式人工智能的面世,人类迈进强人工智能时代。人工智能从浅层学习走向深度学习,算法模型愈发复杂,即使不存在人工调整,人工智能也能通过自我学习实现更新、迭代。这种自我学习能力使得人工智能更好地适应复杂多变的环境和任务,显著提高了人工智能的准确性和有效性。现阶段,由于人工智能的自我学习能力不断增强,其推演逻辑很大程度上突破了人类智慧的边界,人工智能开发者难以基于人类思维对人工智能的决策过程和结果作出完全解释,也即在特定技术条件下,人工智能存在一定程度的不可解释性是其固有特性,不是所有的人工智能及其算法都能进行解释,特别是复杂的机器学习技术越来越先进

23、,训练数据越来越丰富多变的情况下,“可解释性”受技术的限制越发明显。同时,人工智能不可解释性与系统模型的准确性与有效性呈正相关,模型越复杂先进,结果准确性越高,但可解释性的难度相应提高。换言之,系统模型的准确性、有效性与系统的可解释性成反比。无视现有的技术水平追求人工智能的透明度将导致大部分人工智能系统因不合规而无法上市,影响行业的创新发展其次,对人工智能系统提出透明度要求存在有损系统安全和提供者、使用者利益的风险。实现人工智能透明性原则的途径是对相关信息如训练数据、算法等的披露和解释。这为投机分子利用算法漏洞达成非法目的或使算法失效,影响相关用户的使用提供了便利。例如在谷歌公开PageRan

24、k算法后,很多网站有针对性地嵌入迎合该算法的网页导致一些与用户搜索内容关联性不强或者完全没有关联的网页出现在谷歌搜索结果中。1 2 1 p104而且,透明度原则所要求披露和解释的内部信息可能涉及企业的商业秘密,这急剧增加了相关信息被竞争对手恶意利用,实施不正当竞争行为的风险,极易造成人工智能系统开发企业利益受损,打击企业创新发展的积极性。2024年政法论丛128透明度原则的实现并不必然要求对人工智能信息的全部披露和解释,完全透明度的要求是忽视客观现实,极具危险性的做法。完全透明看似可以实现对人工智能系统的更好监督,因为其披露和解释更多的信息,但实际上,这些信息不一定是实现监督和获得信赖所必要的

25、,甚至可能会因为过度的披露和解释造成信息过载而掩盖系统存在的问题。因此,透明度原则的实现存在限度,对于披露和解释相关信息的规范要求应当考虑客观技术限制以及信息接收对象的实际情况,做到真正有效。第一,透明度原则的实现应考虑现有的客观技术条件,义务主体是否普遍具有履行能力。“法律不强人所难”,法律的道德性要求法律不应当规定法律主体无法做到的事情,立法者应当区分义务的道德和愿望的道德,避免将希望变成义务。1 3 1 p15-21无视现有客观技术条件而规定难以实现的信息披露和解释要求,是对相关主体的苛责。当然,为了推动技术的发展,提高整体人工智能系统的透明度,实现对安全、可信赖的人工智能系统的追求,应

26、当发挥法律对主体行为所具有的指引作用。对于立法者所希望达到的更高标准的透明度要求可以通过倡议性规定予以确立,从而引导、鼓励相关主体积极探索研发新技术,规范标记和检查系统变化,进一步提升系统结果可回溯性,提高信息披露和解释的能力。第二,透明度原则的实现应当根据信息接收主体的不同进行差异性调整。人工智能信息的接收主体可以分为两大类,国家机关和国家机关以外的其他主体。由于国家机关与其他主体在理解、保密能力以及获取信息的目的上存在差异,因而影响信息公开的内容范围和解释要求。其一,不同类型的接收者专业知识储备以及理解能力的差异导致接收者对相关信息解释的依赖程度不同。例如具有专业知识的接收者如审计机构,面

27、对企业所披露的系统的信息,无需将计算机语言进行转换即可实现对该信息的理解;而普通用户由于专业知识的缺乏,对计算机语言直接进行理解存在困难,需要企业以较为形象易懂的方式对相关信息进行解释。同时,接收者的专业程度对披露和解释的信息侧重点存在影响,普通用户更在乎系统的行为或建议的作出理由(为什么)而不是系统的推理规则。1 41 p6-7其二,不同类型的接收者的保密能力不同。面对用户与公众的信息披露和解释,由于其保密能力远不如国家机关或审计机构,因此需要考虑实现透明度原则与系统提供者、使用者的商业秘密利益间进行平衡,从而确定信息公开的范围。而面对具有较高保密能力的国家机关或审计机构,这种利益平衡缺乏存

28、在基础,因此系统提供者、使用者所披露的信息范围相较普通用户理应更广。其三,由于不同接收者与系统的利害关系、获取信息的目的不同,披露和解释信息的范围也应有所不同。例如以监管为目的的信息披露和解释范围可以涵盖人工智能系统的各个方面,从而保障公共利益;以保障用户知情权、自决权为目的的信息披露和解释则以决策作出的相关数据、算法和考量因素为主要内容。实践中,透明度原则在监管备案和面向用户和公众的信息公开实践中的规则差异值得关注。算法推荐管理规定第2 4条和暂行办法第1 7 条明确指出算法备案内容应当包括“服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息”。以此为基础,互联

29、网信息服务算法备案系统对备案内容进行进一步细分,将其具体划分为主体信息、算法信息以及产品及功能信息三个部分。其中,主体信息包括主体名称、统一社会信用代码、主体类型、注册地以及月活跃用户量等;算法信息分为基础属性信息和详细属性信息,前者包括算法类型、上线时间、运用领域、算法安全评估报告、拟公示内容等,后者包括算法数据、算法模型、算法策略和算法风险与防范机制等;产品及其功能信息包括产品名称、产品的服务形式、服务对象、产品访问地址、功能名称、功能介绍等。监管部门面对人工智能系统的提供者、使用者所披露的信息具有较强的理解能力,但这并不意味着提供者与使用者解释义务的免除,其需要就其备案的内容进行说明解释

30、。我国暂行规定第1 9 条第1 款肯定了监管部门在检查监督过程中基于监管必要所提出的说明要求,服务提供者和技术支持者应当予以配合,不得以相关信息涉及企业的商业秘密进行对抗。人工智能系统信息的备案范围考虑到信息接收者的理解和保密能力较强以及信息监督的获取需要,较一般信息公开可更为广泛,但这并不意味着相关信息向国家机关的完全披露,其作为一种行政备案理应受到行政基本原则一一比例原则的制约。1 5 p182比例原则要求行政机关在采取某项措施时,必须权衡公共利益目标的实现和个人或组张永忠:论原则的法治化实现129第2 期织合法权益的保障,若为了实现公共利益目标而可能采取对个人或组织权益不利的措施时,应将

31、不利影响限制在尽可能小的范围和限度之内,保持二者之间适度的比例。【1 6 p31因此,人工智能系统信息的备案内容应为实现对系统的监督与问责所必要的,并将系统提供者和使用者的披露和解释负担以及利益受损风险限制在尽可能小的范围。除了比例原则,监管机关节约管理成本也是对信息备案内容范围进行限制的原因。过度的信息披露对监管机关来说是一种负担,同时也造成了监管资源的浪费。面对用户以及社会公众的信息披露,由于接收信息对象的专业能力差异,需要与实质透明的实现方式即解释披露信息紧密结合,才能实现透明度原则的价值。由于义务主体对人工智能系统信息的解释是建立在信息披露的基础上,因此解释的内容与披露的内容范围具有一

32、致性。换言之,相关主体对于信息向用户与社会公众进行解释的同时也完成了信息公开的要求。因而对信息公开内容的讨论转变为对信息解释内容的讨论。面对用户与公众的解释分为事前解释与事后解释。目前,算法推荐管理规定第1 6 条对于事前解释的内容范围有比较具体明确的规定,其要求“算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。”该事前解释的信息范围的规定较上述信息备案范围更为简单,仅是对人工智能系统或服务的简要说明,有利于用户与公众对系统形成概括性认识,有效地平衡了社会公众的知情权和相关企业的利益,具有较好的合理性。有关事后

33、解释的规定主要体现在算法推荐管理规定第1 7 条中,要求算法服务提供者对因应用算法而受影响的用户依法予以说明,但其对说明的内容以及说明方式并未予以明示。事后解释普遍出现于受影响者对运用人工智能系统所做出的决策存在疑议而要求相关主体进行解释说明。在此种情况下,对人工智能系统的基本情况的解释并非受影响者所关心的内容,他们更多期望得到影响他们切身利益的决策作出的理由性的信息。因而,事后解释的内容应当是有针对性的,是对人工智能系统具体决策过程的相关信息的解释,例如欧盟人工智能法案第6 8 c条第一款规定受影响者有权要求部署者就人工智能系统在决策程序中的作用、所作决定的主要参数和相关输人数据作出明确而有

34、意义的解释。基于此,我国法律应当对事后解释的内容予以明确,要求解释的内容应当具有针对性,具体包括决策作出的具体程序、参数权重、相关数据以及其他影响决策作出的关键因素。第三,透明原则的有限实现应当考虑面向受体的实际效果。透明度原则存在限度隐藏着一个前提条件,即其所披露和解释的信息能够使他人形成对人工智能系统的正确认识,因为一旦这种披露和解释无法为他人所理解或者信息本身是虚假的,也即事实上仍保持“算法黑箱”,那么基于技术限制和利益平衡而产生的透明度限制将失去存在的基础,同时也无所谓透明度原则的存在。因此,在明确透明度原则限度的基础上,应当对信息披露和解释的实效提出要求。人工智能透明度原则促进了信息

35、向利益相关者的转让,这反过来又成为他们评估人工智能系统是否可信的基础。1 7 信息的披露和解释本质上是一种与信息接收者的交流,其要实现的目标是信息的转移。语言哲学家格莱斯的合作原则理论认为,想要实现有效交流需要满足四个条件:数量、质量、关系、方式。1 8 2 6-2 7 鉴此,人工智能系统信息的披露和解释效果实际存在四个维度的衡量标准,即信息的数量、信息的真实性、信息的关联性以及解释的清晰度。1 8 信息的数量是指系统的提供者和使用者所披露和解释的信息内容是法律所要求或鼓励,少于该标准将不利于人工智能的监督,多于该标准则容易导致提供者、使用者利益受损以及增加信息接收者的负担。信息的真实性要求系

36、统提供者和使用者不得披露和解释虚假信息、对真实信息进行歪曲解释以及对部分信息进行隐瞒。系统提供者和使用者所披露和解释的信息应与接收者所提要求贴合,这为信息关联性所要求。具体而言,是指面对不同对象,提供者和使用者所披露和解释的信息应当与主体获取信息的目的具有关联性,不得答非所问。最后是对披露信息的解释要求,要做到方式简洁、有效,避免歧义。我国虽对算法或人工智能透明和可解释有所规定,但在实践中,人工智能透明度的效果参差不齐,并不能完全发挥规范的作用。以互联网信息服务算法备案系统中企业公示的内容来看,不难发现企业采用了包括纯文字解释、图表解释和流程图解释等不同的解释方式。其中,采用流程图或图表等方式

37、的解释能2024年政法论丛130较为清晰、直观地展现人工智能系统的概况,而采用纯文字方式的解释则较为穴长和抽象,甚至有些纯文字解释中对算法基本原理的描述仍存在采用专业术语的情况。解释效果的差异不排除受算法模型的复杂程度的影响,但采用更为直观、具像化的解释方式显然可以达到更好的效果。主管机关应当在有关规定中进一步提出对解释方式和解释效果的要求,引导企业采用流程图、图表、甚至是动画等更为直接的方式对人工智能系统的概况进行解释,如深圳经济特区人工智能产业促进条例第7 1 条所规定的人工智能产品和服务的提供者应当采取利于公众理解的方式对算法进行说明,以及上海市促进人工智能产业发展条例第1 6 条中明确

38、鼓励相关主体采取公众可理解的方式对算法的基本原理、目的意图等进行说明。与备案的事前解释相同,事后解释义务主体应当采取权益受影响者能够理解的方式对决策作出的缘由进行解释。并且,由于事后解释所面对的是具体的受影响者,其解释方式需要根据信息接收对象的具体理解能力进行灵活调整三、人工智能透明度原则需体现分级分类分场景的差异性治理透明度原则的实现不仅要考虑技术发展与数据保护的因素,考虑不同主体的信息获取的实际需求,而且不同风险等级、不同运用场景的人工智能透明度标准也值得深人探讨。透明度原则是人工智能治理的基本原则之一,但这并不意味着要求所有人工智能系统的开发者和部署者均履行相同标准的透明度义务。一方面,

39、不同类型的人工智能系统具有不同的风险程度,对人类以及人类社会发生损害的概率和损害的严重程度不同。有的人工智能系统具有较高发生损害的概率或带来严重损害后果,如机动车自动驾驶等无人人工智能系统,而有的人工智能系统对人类社会几乎没有影响,如扫地机器人等智能家居系统等。对不同风险的人工智能系统施以同样标准的透明度要求会产生不良影响:若以较低风险的人工智能系统治理需求为标准,将不利于对较高风险系统的监管和公民权益的保护;以具有较高风险的系统治理需求为标准,则对低风险系统的提供者、使用者施加过重义务,既不必要也不经济。同时考虑到制度成本和执行成本,对人工智能进行分级分类治理将成为实践中较为可行的方式。另一

40、方面,不同运用场景的人工智能具有不同的风险治理需求。某些人工智能运用于特定场景具有特定目的,例如,银行的贷款风险评价系统。在此类场景运用人工智能是为了通过挖掘出人类逻辑无法得出的隐形因素,从而更为准确的识别出具有实施某种行为或者具有某种风险的人。将系统的相关信息按照通常标准进行披露和解释会导致信息被不法分子利用从而避免被识别,即人工智能内部信息的披露和解释将会使运用该人工智能的目的无法实现,系统将会丧失其自身价值。实践中,透明度原则并没有体现上述风险治理的需求。以我国已开展的算法备案为例,我国目前所要求的备案内容是一种普世的、格式化规定,1 9 p5没有根据算法的风险、类型以及运用场景等设定具

41、有针对性、精细化的备案内容要求。例如对个性化推送类等容易引起歧视的算法应当提高对其训练数据来源、算法策略、防范机制等信息的备案要求。又如,由于不同算法的备案内容要求尚未进行精细化区分,为了避免备案主体负担过多的义务而影响行业的发展,目前算法详细属性信息的部分内容例如算法模型的训练数据来源标注为选填,不提供相关信息不会影响备案。这种做法不利于对较高风险的系统进行监管,只能是算法备案制度起步之初的权宜之计。未来,随着算法备案实践的发展,经验不断累积,我国理应根据算法的风险、类型以及运用场景对备案内容提出针对性要求。因此,分级分类分场景对人工智能系统透明度要求进行差异化规定具有现实意义。差异化对待系

42、统风险级别目前,对人工智能系统依风险进行分级治理已经在各国、各地区人工智能法律治理的实践中被广泛运用。欧盟人工智能法案将人工智能系统分为不可接受风险系统(也即禁止使用的系统)、高风险系统、有限风险系统和轻微风险系统,并施加不同严厉程度监管措施。对高风险系统的监管是法案的重点内容,其规定了覆盖系统整个生命周期的风险管理体系,对系统的提供者、部署者等施以严格的披露、解释、记录、通知、应急响应等义务,而有限风险系统和轻微风险系统则拥有较高营运自由度。加拿大自动化决策指令附录B规定根据算法对个人、群体的权益以及生态环境的影响程度(考虑影响的时间长短和结果是否可逆)将人工智能系统分为四级。我国对人张永忠

43、:论人月度原则的法治化实现131第2 期工智能的治理也采用分级的思路,如算法推荐管理规定第2 3 条明确规定要建立算法分级分类安全管理制度,对服务提供者进行分级分类管理;暂行办法第3 条明确指出要“对生成式人工智能服务实行包容审慎和分类分级监管”。但对于分级分类的标准以及对应的监管措施,我国法律尚未予以明确。借鉴域外的人工智能系统风险分级标准,结合我国现有法律的规定,笔者认为可将人工智能风险分为四级,并根据风险等级的不同对透明度义务要求进行差异化规定,具体如下表所示。I级风险系统是指对个人权益或社会公益、生态环境不会产生或仅有微小概率产生影响并且程度轻微的系统(如扫地机器人等智能家居、Alph

44、aGo等)。II级风险系统是指有一定概率对个人权益或社会公益、生态环境等产生影响,该影响是短期且容易恢复的系统(如信息检索、推荐系统)。II级和IV级风险系统均是对个人权益或社会公益、生态环境有较高概率产生明显、重大影响,II级风险系统产生的影响是长期存在且较难恢复(如自动招生系统、信用评价系统、再犯危险性评价系统),而IV级风险系统造成的影响是不可逆的(如自动驾驶系统)。基于人工智能系统对个人、社会权益以及生态环境的影响概率和程度,对于I、II 级风险系统,应当给予较高的营运自由度,赋予其在系统内部信息的披露和解释要求上享有一定程度的自主选择权,将监管注意力集中于风险较高的人工智能系统;II

45、I级和IV级风险系统是监管的重点对象,应当要求其严格履行相关信息的披露和解释义务,确保透明度原则的高标准落实,降低风险发生的可能性,保护个人、社会权益和生态环境。在实践中,为应对复杂的现实环境,解决多种问题,作为整体对外提供服务的人工智能系统可能是多种运用于单一场景的人工智能系统的耦合,或者同一人工智能系统运用于不同场景会出现不同风险。确定这类人工智能系统的风险,出于周全治理的必要,应采取“就高不就低”的方法,根据其所能达到的最高风险确定系统的风险等级,进而制定透明度原则的具体要求。人工智能系统透明度要求分级框架是否需要深层披露实质透明风险是否需要浅层披露面向社会公众的解释备案一般信息公开面向

46、国家机关的解释事前解释事后解释1需要自愿自愿I需要需要需要需要自愿III需要需要需要IV需要需要需要(二)差异化对待系统类别对人工智能系统进行分类治理是我国人工智能法律治理的重要思路。目前,我国已对个性化推荐系统、信息检索与过滤系统、智能排序类系统、智能调度类系统和生成式人工智能系统开展类型化规制。对人工智能系统进行类型化规制有利于根据不同类型系统的特性制定有针对性的规制方案。例如个性化推荐人工智能系统的治理重点在于各种因素的权重设置是否合理、是否存在诱导等,其主要目的是避免出现信息茧房、算法歧视等风险。而生成式人工智能系统更多的在于数据以及生成物的合法性、准确性、公平性,避免出现对人格权、知

47、识产权等权利的侵害以及出现生成物欺骗、歧视等现象。除此之外,对人工智能进分类治理,符合敏捷应对技术快速发展的立法思路。面对技术的发展,对人工智能系统进行统一立法规制无疑凸显了法律的滞后性。在统一的人工智能治理通用规定的基础上,根据不同类型的系统特性进行有针对性的立法,有利于对新兴的人工智能系统进行精准规制实践中,除上述几类人工智能系统外,还存在其他类型的系统需予以差异化的透明度规制,如决策型系统以及随机型系统等。决策型系统所需履行的透明度义务主要依照人工在决策中的干预程度来确定。人工智能设计和部署等相关主体是否应承担事后解释义务,需要判断该决策的作出是否由人工智能系统起决定性作用。只有在完全由

48、人工智能系统自主进行决策或存在人工干预但决策的主要依据由人工智能系统提供的情况下,才有进行事后解释的必要。而由人工主导作出的决策,则由该工作人员对决策作出的依据和理由进行解释即可,无需涉及对人工智能系统相关信息的解释。随机型人工智2024年政法论丛132能系统通常运用于以抽签方式分配有限资源?、彩票号码生成等场景,具有两种特性:“一是结果不能由控制者操控;二是结果不可预测”。2 0 1 1 5 面对这种特殊的系统类型,常规的信息披露和解释并无法确保系统的公正,因为即使在系统所使用的数据、算法模型等信息的披露和解释都显示其具有随机性的情况下,而系统操作者可以通过短时间内程序的重复运行来获得预想得

49、到的结果,而这种重复运行因计算机算力的提升成为可能。2 0 1 p116因此,实现此类系统的透明度需要系统操作者证明其没有进行这种程序的重复。这要求随机型系统在运行过程中同步进行操作日志的记录并确保日志无法被修改或删除,从而通过操作日志的披露来证明结果由系统随机生成而不受操作者的控制。(三)差异化对待系统运用场景如前文所述,部分人工智能系统运用于特定场景有通过挖掘隐性信息从而形成准确预测或决策,若对该人工智能内部信息进行披露和解释将会使系统的挖掘行为前功尽弃。在这种特殊场景下,该人工智能的信息公开和解释方式与其他人工智能应有所不同。如何在避免向社会公众披露、解释系统挖掘隐性信息的同时不影响透明

50、度原则的实现是此类人工智能所面临的难题。就现有的技术条件而言,绕开决策影响因素信息的披露和解释,采用其他方式消除受影响者对决策合理性的质疑存在一定的困难,因为受影响者倾向于通过相关主体对于影响决策的相关信息的解释来判断决策政策是否合理。人工智能系统决策信息保密的必要性与社会公众的知情权存在难以调和的冲突,保持决策信息的非公开将会导致公众的知情权受损,而保护公众的知情权则将贬损人工智能系统的使用意义和价值。鉴此,为保证人工智能系统功能的正常发挥作用,需要对社会公众的知情权作出一定的限制。在解释时,决策者仅需向受影响者证明该系统对所有人适用统一的规则(例如,在相同条件下,任何人都会得到相同的决策结

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服