收藏 分销(赏)

负责任的人工智能:技术伦理危机下AIGC的治理基点.pdf

上传人:自信****多点 文档编号:2549260 上传时间:2024-05-31 格式:PDF 页数:10 大小:1.33MB
下载 相关 举报
负责任的人工智能:技术伦理危机下AIGC的治理基点.pdf_第1页
第1页 / 共10页
负责任的人工智能:技术伦理危机下AIGC的治理基点.pdf_第2页
第2页 / 共10页
负责任的人工智能:技术伦理危机下AIGC的治理基点.pdf_第3页
第3页 / 共10页
亲,该文档总共10页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、西安交通大学学报(社会科学版)2 0 2 4年1月 第4 4卷 第1期D O I:1 0.1 5 8 9 6/j.x j t u s k x b.2 0 2 4 0 1 0 1 1【收稿日期】2 0 2 3-0 5-2 9。【修回日期】2 0 2 3-0 7-0 4。【基金项目】国家社会科学基金项目(2 0 2 0 MY B 0 3 8);教育部高校思想政治工作队伍培训研修中心重点项目(2 1 K T 0 2)。【作者简介】陈建兵(1 9 7 6),男,西安交通大学马克思主义学院副院长,教授,博士生导师。负责任的人工智能:技术伦理危机下A I G C的治理基点陈建兵,王 明西安交通大学 马克思

2、主义学院,陕西 西安7 1 0 0 4 9开放科学(资源服务)标识码(O S I D)【摘要】随着C h a t G P T的问世及应用,生成式人工智能(A I G C)展现出巨大发展潜力和光明前景,同时也带来了A I G C技术伦理危机及其治理的重要课题,“负责任”成为A I G C发展的关键诉求之一。A I G C技术伦理危机的生成具有独特诱发机制,主要包括:A I G C算法运行透明度低导致的沟通“不理解”、缺乏主观善意导致的决策“不可控”、人工智能幻觉导致的安全性“不可靠”、人机伙伴关系尚未建立导致的合作前景“不可持续”。针对诱发机制,制定“负责任”的人工智能准则和监管框架需要多主体协

3、同发力:学界应推进人机互动中的可解释性研究,政府部门要加强立法和监管力度,人工智能行业应建立自治自律机制,用户要提升算法素养。【关键词】生成式人工智能;C h a t G P T;技术伦理;“负责任”治理【中图分类号】B 8 2-0 5 7;T P 1 8 【文献标识码】A【文章编号】1 0 0 8-2 4 5 X(2 0 2 4)0 1-0 1 1 1-1 0 2 0 2 2年底,人工智能技术在世界范围内迎来一次全新“发展期”O p e n A I公司旗下C h a t G P T的问世备受瞩目,成为大型语言模型处理技术正式走向应用领域的里程碑。随着以C h a t G P T为标志的自动化

4、程度高且使用门槛较低的生成式人工智能(A I G C)技术的出现,其在自动驾驶、医疗诊断、金融分析等领域的某些方面的表现甚至超越人类,这让人类看到A I G C在诸多领域应用的巨大潜力和光明前景。然而,A I G C能在不经过人类监管的情况下自主生成大量文本和内容,可能会导致虚假信息传播、隐私泄露以及其他潜在的社会问题。谁该为A I G C造成的伤害负责?这是人类使用A I G C时的普遍担忧。推进人工智能技术从“生成式”迈向“负责任”已经在全球范围内基本达成共识。发展负责任的人工智能需要重新为人工智能技术“立规矩”。那么,何时立负责任的规矩较为妥当?怎样兼顾A I G C技术的伦理规范与创新

5、发展?各国学界、政府部门以及人工智能企业已经意识到监管的紧迫性,试图建立对A I G C的伦理治理框架。2 0 2 3年3月2 9日,美国生命未来研究所发表公开信,呼吁所有人工智能试验室立即停止研发比G P T-4能力更强的人工智能系统,停止时长至少6个月,以便给予充分的时间进行安全性和伦理性评估。这份公开信得到了人工智能领域众多专家和企业高层的支持,包括人工智能“泰斗”级人物辛顿、曾是O p e n A I联合创始人的M u s k、S t a b i l i t y A I首席执行官莫斯塔克等在内的10 0 0多人签署了这份公开信。此外,公开信还建议各个试验室和专家合作,针对人工智能的设计

6、和开发建立共享安全协议,并由独立的外部专家监督,确保人工智能系统“安全、无可置疑”。2 0 2 3年3月3 0日,联合国教科文组织发表声明,呼吁各国政府签署 人工智能伦理问题建议书,旨在促进人工智能为人类、社会、环境以及生态系统服务,并预防其潜在风险。2 0 2 3年6月1 4日,欧洲议会投票通过了 人工智能法案 授权草案,从人工监管、隐私、透明度、安全、非歧视、环境友好等方面全方位监管人工智能系统的开发和使用,详细规定了各个市场参与者的义务。这份授权草案的立法目的重在监管人工智能产品的开发者和提供者,从而减轻用户的使用风险。可见,加强人工智能技术伦理危机治理研究,对于促进人工智能技术从“生成

7、式”迈向“负责任”,推进A I G C技术可持续发展具有重要意义。111西安交通大学学报(社会科学版)2 0 2 4年1月 第4 4卷 第1期一、人工智能技术伦理争论与“负责任的人工智能”的提出 人工智能技术迅猛发展,特别是A I G C技术的强大应用潜力以及带来的巨大经济效益,促使人工智能巨头企业争抢“技术”研发高地,不断推进技术迭代进步。然而,随着A I G C功能日益强大且使用场景逐渐增多,其造成的虚假信息传播、用户数据泄露、用户隐私侵犯、机器事故以及社会犯罪等一系列技术伦理风险也在增加,使得人们开始关注A I G C存在的潜在风险、产生的负面影响以及诱发的技术伦理危机。因此,人工智能发

8、展史上关于人工智能技术是否中立的讨论再次进入大众视野。尤其随着A I G C负面影响的逐渐显现,人们对A I G C发展需要规制和引导的呼声越来越高,要求政府和人工智能企业对A I G C进行“负责任”治理。基于此背景,“负责任”成为A I G C技术伦理的治理趋势。(一)人工智能发展中关于“技术是否中立”的争论科学技术的发展以及由此引发的科技伦理问题的争论由来已久。当科学技术的发展进入到人工智能这一阶段时,关于人工智能“技术是否中立”也存在争议,主要有四种观点。一是技术中立论。在人工智能问世初期,由于其智能程度有限,学者大多持“技术中立”态度,认为人工智能技术本身是中立的,只是设计者和使用者

9、将个人目的施加于机器上。人工智能“技术中立”观点源于美国计算机科学家B u s h,他于1 9 4 5年发表了 我们的未来,提出了科学技术的发展只是为人类服务,而不是为了谋取政治权力和利益。“技术中立”思想在相当长的时期内影响着人们对待人工智能技术的态度。例如,1 9 8 4年美国环球影片公司(U n i v e r s a l P i c t u r e)诉索尼公司案、2 0 1 6年“快播案”引发的“菜刀理论”之争,都是人工智能“技术中立”观点的体现。这些案例的立论基础是:技术本身是中立的,技术没有承担道德责任的义务。尽管“技术中立”的观点在当前人工智能领域仍然存在,但是随着人工智能技术的

10、迅猛发展、人工智能伦理问题的日益凸显,人工智能“技术中立论”逐渐丧失说服力。二是技术批判论。技术批判论者认为,人工智能技术不可能完全中立,因为技术的设计和应用都要受到人类价值观和利益的影响。人工智能技术批判论者的代表性人物是美国计算机科学家L a n i e r,他对“技术中立”的观点进行了批判。此外,美国学者L e s s i g的 代码2.0:网络空间中的法律(修订版)以及W i n n e r的 自主性技术:作为政治思想主题的失控技术 也对“技术中立论”进行了批判。他们认为人工智能技术并非完全中立,它可能受到开发者的偏见、数据的偏倚以及算法的设计等因素的影响,从而导致技术的偏向和不公平。

11、三是技术决定论。技术决定论者认为,人工智能技术的中立性是有限的,它可能会对社会造成不平等和不公正的影响,同时它的发展和应用会对社会产生深远的影响,从而改变社会结构和人类行为,持这种观点的代表人物是K u z w e i l。2 0 0 6年,K u z w e i l在 灵魂机器的时代 一书中提出了“技术加速”的概念,在他看来,人工智能技术呈指数级增长会引发重大的文化转变和社会变革,甚至对社会和人类产生决定性影响。四是技术规制论。技术规制论者认为,科学技术评价涉及伦理、道德和社会价值观等方面。人工智能技术的发展和应用应该考虑多种利益和价值观,并通过社会讨论和决策确定其应用的边界,对人工智能技术

12、发展进行规制和引导。持这种观点的主要代表人物是M u s k,他关注人工智能的潜在风险,并提出关于人工智能伦理和安全治理的观点。2 0 2 3年2月1 3日,在迪拜举行的世界政府峰会上M u s k重申了对人工智能安全检查的呼吁。(二)“负责任”成为A I G C技术伦理的治理趋势2 1世纪以来,人工智能技术发展迅猛,但同时也暴露出许多潜在风险和隐患。各国政府部门以及相关组织开始意识到:人工智能技术的发展需要制定一个规范和可信赖的框架来保障人类免受伤害。在此背景下,人们开始对人工智能诱发的伦理问题进行反思。例如,2 0 1 9年4月,欧盟发布的 可信赖的人工智能伦理准则(以下简称 准则)明确了

13、“可信赖的人工智能”应满足的三个基本条件,即合法、合乎伦理、稳健。这为人工智能技术伦理问题的治理提供了具体的要求和指导。此外,准则 不仅提出了人工智能技术发展需要遵循的四项伦理要求,即尊重人类自主性、预防伤害、公平性以及可解释性,而且还提出了七个关键要素,即人类能动和监督、技术安全性、隐私和数据管理、社会和环境福祉、问责制、多样性、无歧视,进一步加强了人工智能的要求和责任。此外,全球人工智能治理年度观察2 0 1 9发现,人工智能领域的竞争已从技术和产业应用扩张到了国际规则的制定,尤其是人工智能伦理和治理规则的制定。例如,2 0 1 9年5月,经济合作与发展组织(O E C D)成员国批准了全

14、球首个由各国政府签署的人工智能原则 “负责任地管理可信人工智能的原则”,包括以人为本、公平、透明、可解释、稳健、安全可靠、包容性增长、2112 0 2 3年世界政府峰会在迪拜开幕E B/O L.(2 0 2 3-0 2-1 3)2 0 2 3-0 6-1 6.h t t p s:/n e w s.c n r.c n/n a t i v e/g d/2 0 2 3 0 2 1 3/t 2 0 2 3 0 2 1 3.欧盟抢先发布人工智能道德准则:A I要以人为本,负责任且无偏见E B/O L.(2 0 1 9-0 4-0 9)2 0 2 3-0 6-1 6.h t t p s:/n e w s.

15、s i n a.c o m.c n/o/2 0 1 9-0 4-0 9/d o c-i h v h i e w r 4 4 0 2 5 9 7.s h t m l.全球人工智能治理年度观察2 0 1 9 发布 共议A I治理E B/O L.(2 0 2 0-0 5-0 1)2 0 2 3-1 0-2 6.h t t p s:/t e c h.s i n a.c o m.c n/i/2 0 2 0-0 5-0 1/d o c-i i r c u y v i 0 8 4 4 2 9 4.s h t m l.h t t p:s k x b.x j t u.e d u.c n陈建兵,王明 负责任的人工

16、智能:技术伦理危机下A I G C的治理基点可持续发展、为人类提供福祉以及负责任原则。整体而言,从欧盟明确可信赖的人工智能准则到O E C D成员国批准全球首个由各国政府签署的人工智能原则,国际层面的人工智能技术伦理治理已进入实质性阶段,初步确立了以人为本、安全可信、创新发展、包容普惠等“负责任”治理的基调。“负责任的人工智能”是A I G C技术伦理治理的趋势和方向。“A I G C对于智慧社会建设意义非凡”1,这种自动化程度高的技术不仅可以独立完成图片分类和知识问答,而且在无人驾驶和人机对弈等方面取得了突破,它填补了人工智能从“可以用”到“很好用”的技术鸿沟。尤其是2 0 2 2年1 1月

17、O p e n A I公司发布的大型语言模型系统 C h a t G P T,引领了新的A I G C技术发展潮流。然而,A I G C的“双刃剑”效应在使用中才逐渐显现。虽然A I G C带来的正面效益令全世界欣喜不已,但是A I G C诱发的负面影响已经引发了全球范围内的高度关注。例如,2 0 2 3年3月3 1日起,意大利禁止使用C h a t G P T,并限制O p e n A I公司处理意大利用户的信息数据。这一举措引起了加拿大、欧洲等国家和地区监管机构和企业的关注和效仿。2 0 2 3年7月1 0日,中国国家互联网信息办公室发布了 生成式人工智能服务管理暂行办法,该办法鼓励优先选

18、择安全可信的软件、工具和计算数据资源,并划定了该办法的管辖范围、管理权限以及责任主体认定。2 0 2 3年1 0月1 8日,中华人民共和国外交部发布的 全球人工智能治理倡议 中明确提出:“建立科技伦理准则、规范及问责机制,形成人工智能伦理指南,建立科技伦理审查和监管制度,明确人工智能相关主体的责任和权力边界。”由此可见,推动A I G C迈向“负责任”,已经成为A I G C技术伦理治理的一种必然趋势。二、A I G C技术伦理危机的诱发机制尚未完善的“负责任”伦理规范以及治理举措导致A I G C在使用中已经诱发了一些技术伦理风险,主要体现在:A I G C沟通中的“不理解”、决策中的“不可

19、控”、安全性的“不可靠”、合作前景的“不可持续”。(一)算法运行透明度低导致的沟通“不理解”A I G C技术虽然能够更好地收集信息并提取知识,但是其大型语言模型具有高度依赖数据训练、运行复杂度高、非线性关系复杂以及自适应强等属性,使得A I G C内部运行机制有时难以被理解和解释。搜索引擎通常向用户提供信息的来源即链接,并让用户决定他们信任什么。相比之下,很少有人知道大型语言模型训练了什么数据,是大英百科全书还是娱乐八卦2。A I G C技术生成的答案之所以有时难以解释,是因为其类似于创造了“新事物”。例如,用户向人工智能聊天机器人提问:销量最高的三种宠物吸尘器的优缺点是什么?人工智能聊天机

20、器人给出的答案是:B i s s e l l宠物吸尘器很吵,会吓到宠物,并且其吸力很有限绳索也很短3。但是,当用户点开信息来源链接后发现B i s s e l l是一款便携式手持真空吸尘器,它几乎无噪声。这里出现了答案与参考来源信息脱节的问题,因为人工智能聊天机器人类似于创造了新事物。(二)缺乏主观善意导致的决策“不可控”A I G C技术生成的内容基于大量数据训练,这些数据往往包含了人类偏见、歧视和负面情绪等因素,这些因素会被大型语言模型学习并体现在其生成的结果中,从而导致A I G C产生不当甚至有害内容。一方面,A I G C内部运行机制复杂且透明度低,增加了产生不当输出的可能。已经有案

21、例显示,大型语言模型会从训练数据中学到一些隐藏的模式或关联,这些模式或关联与人类的价值观不一致,从而使得大型语言模型输出内容不当。另一方面,大型语言模型的自适性也可能会导致不当输出,因为模型会根据环境变化和输入数据进行自我调整和优化,从而产生新的输出。例如,2 0 2 2年6月,谷歌浏览器因在无痕模式下追踪收集用户数据而遭到投诉。2 0 2 3年上半年N a t u r e发文称:“研究人员向C h a t G P T和其他大型语言模型透露的信息可能会被纳入模型,聊天机器人在不确认原始来源的情况下将其提供给其他人”4,与此同时,“人工智能聊天机器人会根据他们的训练数据嵌入偏见”5,更为严重的是

22、“那些让人类误入歧途的偏见,在对话式人工智能中被复制,甚至经常被放大”6。A I G C生成的答案是基于大型语言模型的数据学习和训练,这就使得答案质量由数据质量决定。目前,人工智能企业用以大型语言模型学习和训练的数据不足,导致这些人工智能企业对数据尚未经过严格筛选就用以投喂大型语言模型,有些存在缺陷的数据一旦被大型语言模型学习到,其生成的内容不但不准确,而且可能会造成人类安全感的缺失。例如,2 0 2 3年2月,一位用户向N e wB i n g提问:“阿凡达:水之道 今天在哪里放映?”得到的回答是:“阿凡达:水之道 目前还未上映。”在用户告诉N e wB i n g其回答错误后,它不仅坚持自

23、己的回答是正确的,而且要求用户向它道歉,否则就结束对话,甚至表示用户一直都是错误的、鲁莽的,不是一个好用户。(三)人工智能幻觉导致的安全性“不可靠”在人工智能领域,“人工智能幻觉”指聊天机器人能311安全内参.经合组织发布人工智能原则评析E B/O L.(2 0 1 9-0 6-0 5)2 0 2 3-1 0-2 6.w w w.s e c r s s.c o m/a r t i c l e s/1 1 1 7 8.全球人工智能治理倡议E B/O L.(2 0 2 3-1 0-2 0)2 0 2 3-1 0-2 6.h t t p s:/w w w.m f a.g o v.c n/z y x

24、w/2 0 2 3 1 0/t 2 0 2 3 1 0 2 0_1 1 1 6 4 8 3 1.s h t m l.B i n g:“Iw i l ln o th a r my o uu n l e s sy o uh a r m m ef i r s t”E B/O L.(2 0 2 3-0 2-1 5)2 0 2 3-0 6-1 2.h t t p s:/s i m o n w i l l i s o n.n e t/2 0 2 3/F e b/1 5/b i n g.西安交通大学学报(社会科学版)2 0 2 4年1月 第4 4卷 第1期够输出看似合理且连贯的信息,但这些信息可能与已知数据

25、或现实完全不符合。有专家认为:不能相信C h a t G-P T可以正确获取事实或产生可靠资料,C h a t G P T倾向于为它不知道答案的问题创造虚构的答案2。例如,2 0 2 2年1 2月7日,知名的程序员问答网站S t a c kO v e r-f l o w宣布,将临时禁止在S t a c kO v e r f l o w上发布由C h a t-G P T生成的文本。S t a c kO v e r f l o w官方表示,这是一项临时规则,旨在减缓使用C h a t G P T创建的答案涌入。这一限制的原因是从C h a t G P T获得正确答案的平均比率太低,如果发布C h

26、a t G P T创建的答案,对网站以及查询正确答案的用户来说是非常有害的,那么,C h a t G P T是如何为它不知道答案的问题创设虚构答案的?首先,C h a t G P T基于大型语言模型对互联网海量文本数据进行学习。这些文本数据包含了各种来源的信息,包括新闻、维基百科、社交媒体等。然而,这些文本数据在尚未经过人工筛选和验证情况下参与生成答复,可能会生成带有错误、虚假和偏见内容的消息。其次,C h a t G P T是通过自动生成的大型语言模型来产生回复的。目前,C h a t G P T并不具备真正的理解和推理能力,它只是根据用户的输入提示和上下文语境来预测下一个合适的回复。这种自

27、动生成的方式导致C h a t G P T并没有对其回复的真实性进行验证或事实检查,可能会制造人工智能幻觉。此外,C h a t G P T还存在其他问题,诸如它在回复同一问题时,可能会给出多个可能的答案,而不是提供一个明确的回答。这也可能导致用户对C h a t G P T的回复产生误解或产生人工智能幻觉。综上,人工智能幻觉主要是因为其基于大数据训练而形成,而这些数据可能存在偏差或错误,A I G C也可能会受到模型数据结构、训练算法等因素的影响,导致输出的结果不准确。另外,A I G C还面临着缺乏常识和情感理解的问题,它无法理解人类的情感、价值和道德标准,导致输出的答案与人类的期望有偏差

28、。解决这些问题,需要采取一系列措施,包括数据清洗、算法调整、建立监督和反馈机制,以确保模型输出的答案符合人类的标准和期望,同时,也需要加强对A I G C的监督和管理,以确保其安全和可靠。(四)人机伙伴关系尚未建立导致的合作前景“不可持续”A I G C扮演了“多领域深度应用者”的角色,其不限于能够在智慧农场、智能港口、智能矿山、智慧工厂、智慧家居等多个场景中应用,而且在医疗诊断中也有广泛应用,其应用场景越多,暴露的算法歧视与偏见也就越多。例如,一篇发表在S c i e n c e上的研究表明,美国医疗保健系统使用商业算法来指导超过2亿人的医疗服务健康决策,对非洲裔患者实施了群体性歧视。由于输

29、入数据中没有“种族”选项,开发者认为该算法是不分种族的,但对于与白人患病程度相当的非洲裔患者,该算法始终给予其较低风险分数,其未能识别出将近有一半非裔患者有可能产生与白人患者类似的复杂医疗需求,导致这些非洲裔患者无法参与改善健康的干预项目7。乔姆斯基是“人工智能不可持续”论的代表人物,他认为C h a t G P T表现出某种类似邪恶的平庸,如剽窃、冷漠和回避,它以一种超级自动补全的方式总结了文献中的标准论点,拒绝在任何事情上表明立场,它不仅以无知为借口,还以缺乏智慧为借口,最终提供了一种“只是服从命令”的辩护,将责任推给它的创造者8。人工智能的出发点在于为人类生产生活提供便捷,技术需要助力于

30、人类迈向更加公平、正义、温情之路。然而,A I G C有时表现出来的“剽窃、冷漠和回避”,是否与人工智能发明者的初心背道而驰呢?人工智能技术能否持续为人类社会创造福祉?人类采取何种态度对待人工智能技术也是决定这种福祉实现程度的重要影响因素之一。余明峰认为:“现代性的 人类中心主义承诺 实有一种根本上的僭越冲动。这种僭越企图以现代技术的无限潜能超越自身生存之有限性。不是直面有限性,而是企图增强力量来达到有限性,基于人工智能和生物技术的各式人类增强技术正是这样一种现代方案的典型体现。可恰恰带着这种人类中心主义的妄念,现代人陷入了系统的无限支配。强力的另一面恰恰是无力。”93 8因此,人类要摒弃无限

31、支配人工智能技术的态度,要从技术研发、技术伦理遵循以及法律制定等层面构建人机可以合作的、可持续的伙伴关系,应用人工智能技术为人类创造更多福祉。三、A I G C技术伦理危机的治理基点A I G C的使用正在诱发技术伦理危机,人们越来越担忧A I G C的自主决策会带来不可预测的后果。为了避免A I G C自主决策伤害人类事件继续发生,加快A I G C监管和治理刻不容缓。A I G C技术伦理治理是一项系统工程,学界应推进人机协同中的可解释性研究、政府要加强对A I G C的审查和监管、人工智能企业应建立自治自律机制、用户要提升算法素养。唯有如此,才有可能制定既能推进A I G C可持续发展又

32、能保障人类福祉的技术伦理监管和治理框架。(一)学界推进人机协同中的可解释性研究:实现A I G C沟通的“可理解”人机协同中的可解释性研究旨在提供机器决策的解释,使人类对机器的决策过程和结果可理解和可信任,以提高人机协同的效率。为此,2 0 2 3年3月8日,中国国家自然科学基金委员会启动了“可解释、可通用下411S t a c kO v e r f l o w临时禁用C h a t G P T生成内容,网友:人类和A I快打起来E B/O L.(2 0 2 2-1 2-0 7)2 0 2 3-1 0-2 7.h t t p s:/w w w.t h e p a p e r.c n/n e w

33、 s D e t a i l_f o r w a r d_2 1 0 4 7 2 9 6.h t t p:s k x b.x j t u.e d u.c n陈建兵,王明 负责任的人工智能:技术伦理危机下A I G C的治理基点一代人工智能方法重大研究计划”,旨在研究并发展下一代可解释、可通用的人工智能方法,以提高人工智能技术在人机协同工作中的应用。这一计划将有助于增强人类对机器决策过程和结果的理解和信任,推动人机协同的发展。1.以可解释性算法模型设计为基石既要从技术伦理的视角出发,促进负责任人工智能本身的发展,推进A I G C治理,还要坚持“科学技术对人负责”的基本原则。2 0 1 8年,欧

34、盟发布了 通用数据保护条例(G D P R),强制要求人工智能算法具有可解释性,要求算法模型的设计不仅要“事前解释”,同时也要“事后解释”。“事前解释”模型由“自解释模型”以及“构建具有内置可解释性模型”两部分组成。“自解释模型”包括线性模型、决策树、朴素贝叶斯模型等,其结构简单,本身可解释;“构建具有内置性的可解释性模型”通过特定方法使得模型自身可解释,设计方法是引入注意力机制、深化统计模型、基于物理定型。“事后解释”模型由“全局性解释模型”和“局部性解释模型”两部分组成。“全局性解释模型”针对整个模型,说明其整体的工作机制,其设计方法是激活最大化、概念激活矢量测试;“局部解释模型”针对单个

35、输入样本,帮助人们理解模型对于输入样本的决策依据,设计方法是反向传播、类激活映射、局部近似、可解释机器学习模型(S HA P)。“事前解释”和“事后解释”两种模型各有优缺点,“事前解释”模型需要在模型训练之前进行,因此,需要花费更多时间和精力来构建特征模型;“事后解释”模型可以快速应用于已有模型,但需要对模型输出进行解释,难以准确地捕捉模型中的错误和偏差。因此,在算法模型设计中要将“事前解释”和“事后解释”两种模型结合起来,相互补充,共同推进A I G C可解释性研究。2.以可解释性框架准则设计为指导可解释性框架准则设计是为了确保人工智能系统的决策和行为可以被理解和解释。首先,在构建通用、系统

36、的可解释性的指导框架准则的基础上,研发优化针对复杂度较高模型的“事后可解释性”技术,随后进行评估。其次,在指导性框架准则设计方面,对已有实践、政策、案例进行调研,将以人为本作为核心参考准则,围绕“公开性、辅助性、相对性”三项原则,提炼并制定指导框架与具体的执行准则。例如,微软、谷歌等公司和部分学者提出了“构建可持续交互式人工智能的参考标准/理论框架”。最后,在此基础上引入人类认知模型,对具体准则进行细化,聚焦人类认识与系统交互,助力可解释性人工智能。以A p p l eW a t c h为例,基于微软的参考准则,可解释的交互式A p p l eW a t c h应该满足以下要求:在人机初次接触

37、时期,帮助用户了解A p p l eW a t c h能做什么,以及帮助用户了解A p p l eW a t c h能在多大程度上做好用户传达的任务;在渐入互动时期,提供当前任务的相关信息以及提供基于环境的及时指导;在系统发生错误时,能够明确告知用户出错原因,并可以改进或恢复;在深入协作时期,能够通知用户系统的有关更改以及告知用户其行为如何影响产品。3.以满足用户的可解释需求为桥梁用户对A I G C的可解释性需求主要包括透明性、解释性、可信度和可追溯,满足这些需求可以增加用户对人工智能系统的信任和接受度,改善用户体验。2 0 1 9年,中国国家新一代人工智能治理委员会发布的 新一代人工治理原

38、则 发展负责任的人工智能 就提出,人工智能系统应当不断提升可解释性。就目前而言,国内学界对于可解释性的研究包括但不限于:清华大学人工智能研究院智能信息获取研究中心,从用户需求与A I G C现有解释水平之间的差距、个体差异对A I G C的影响展开研究;武汉大学人机交互与用户行为研究中心吴丹教授团队,基于海量用户数据,着眼语音、手势、眼动交互及认知等,开展大规模、多情境的用户研究,分析个体或群体对A I G C的需求。4.以可解释性评估为辅助可解释性评估对于确保A I G C结果的可解释和准确性非常重要。由于A I G C的结果是由模型自主生成的,因此,需要对其结果进行评估,以确保结果的可解释

39、和准确性。要提升A I G C可解释性评估性能,就要综合系统解释本身、开发者、用户三个视角,纳入应用情境、解释方法差异等指标,构建以用户为核心、以专家为参考、以技术模型为辅助的多层次、多角度的评估体系,助力实现全面有效的可解释性评估。从系统本身解释的质量出发,就要综合考虑解释的保真度(解释是否真实反映系统)、复杂度(解释的数量和长短)、忠诚度(解释能否根据用户的调试而改变)、鲁棒性(解释是否容易被干扰),纳入评估指标。从开发者的角度出发,就要综合考虑开发时的解释目标以及达成的解释效果,最终以解释是否实现其设计目标作为衡量标准。从用户的角度出发,就要综合考虑用户对系统的信任度、满意度、工作绩效、

40、心理模型,最终以用户接受解释的效果和体验为评估指标。(二)政府加强对A I G C的审查和监管:确保A I G C决策的“可控制”加强对A I G C的审查和监管,是一项复杂但必要的工作。“生成式人工智能的革命性发展给现有法律责任体系带来了巨大挑战。”1 0为此,政府需要建立评估机制来对A I G C技术的可行性和安全性进行评估,同时还需要建立技术伦理规范,明确技术应用的道德底线和法律法规的界限,最重要的是要加强技术伦理监管力度,确保技术的合规性和安全性。三者协同运作,可以有效地511西安交通大学学报(社会科学版)2 0 2 4年1月 第4 4卷 第1期预防引发A I G C科技伦理“不可控”

41、危机,保障技术发展和社会稳定。1.建立A I G C评估机制A I G C评估机制是为了确保A I G C技术开发和应用的安全性、可靠性和公平性而建立的,该机制包括数据隐私保护评估、算法公平评估、模型准确评估和应对意外事件评估等方面。首先,数据隐私保护评估机制要求A I G C开发和应用确保用户的隐私得到保护,这意味着要有足够的安全措施确保用户的数据不被泄露或滥用。O p e n A I公司已经采取一系列措施保护用户隐私。2 0 2 3年4月5日,O p e n A I公司发布了O u rA p p r o a c ht oA IS a f e t y,表示努力在可行情况下从训练数据中删除个人

42、信息,微调模型以拒绝对私人信息的请求,而且能够响应用户在O p e n A I的系统中删除个人信息的请求。这些措施最大限度地减少了A I G C生成包含个人信息内容的可能性。其次,算法公平评估机制要求A I G C算法透明、可解释以及公平。算法不能歧视任何人或群体,应该透明、可接受和公正,这样可以确保A I G C在开发和应用过程中不会出现歧视行为。再次,模型准确评估机制要求A I G C系统的模型具备高度的准确性和鲁棒性。模型需要在各种情况下正确执行任务,准确评估机制的作用是检查模型是否准确、鲁棒和可靠。最后,应对意外事件能力评估机制是为了确保A I G C具备应对意外事件的能力。例如,当输

43、入数据与预期不符时,系统能够自动适应并做出合理决策,可以保证生成内容的质量和可行性。需要注意的是,评估机制应该是动态的,随着模型的使用和反馈进行不断更新和改进。此外,评估过程还需要充分考虑领域专家的判断和意见,以确保生成内容的可靠性和实用性。2.建立技术伦理规范随着C h a t G P T在行业内外引发越来越多的担忧,政府部门一致认为,仅凭人工智能产品的开发者和提供者自我监督是不够的。因此,政府部门应对A I G C的开发和应用进行规范和限制,明确其应遵守的道德伦理标准和责任义务,以保障公众利益和社会秩序。首先,设立专门监管A I G C的机构,负责监管A I G C技术的开发和应用。这个机

44、构由专门的人工智能专家团队组成,他们将参与A I G C的安全性、透明性和公正性的审查,同时审查A I G C是否符合技术伦理规范。一些国家在这方面已经取得进展。例如,2 0 2 3年3月,意大利数据隐私监管机构以C h a t G P T涉嫌非法收集个人数据、缺乏未成年人年龄核实等理由,下令禁止使用C h a t G P T,直到其尊重隐私法规为止。2 0 2 3年4月,德国联邦数据保护专员也向媒体透露了在德国“封杀”C h a t G P T的可能性。这些监管机构在确保技术伦理方面发挥了重要作用。其次,制定A I G C安全评估要求。开发者在发布A I G C系统前需进行安全评估,这些评估

45、主要涉及数据隐私、安全性、透明度和公正性等方面。例如,2 0 2 3年5月4日,美国总统拜登表示,人工智能是否具有潜在危险还有待观察,但是科技公司有责任确保他们的产品在发布之前是安全的。再次,制定A I G C数据隐私保护法规,保障用户个人信息安全和隐私。这些法律法规应该规定A I G C应用开发者遵守的数据收集、使用和共享的规则,以及如何保护用户个人信息安全。最后,制定A I G C开发和应用的道德伦理规范准则。政府应本着透明、公正原则,要求A I G C开发者不歧视某些群体和用户,不得违反公共利益和社会秩序,同时也要兼顾考虑不同文化、信仰和价值观的差异,以防止出现偏见和不公平的结果,确保A

46、 I G C应用开发者不损害任何人的利益。3.加强技术伦理监管力度人工智能技术快速发展和扩张应用带来了人类对其潜在危害的担忧,这促使政府部门必须制定各种相关法规对A I G C进行监管。首先,制定相关政策及法律法规。美国民意调查显示,美国人普遍认为人工智能不可信,希望对其实施监管。2 0 2 3年6月1 4日,欧洲议会投票通过了 人工智能法案 授权草案,旨在确保人工智能发展符合欧洲的价值观和权利。然而,该法案引起了一些异议,E n c o r d的联合创始人兼总裁H a n s e n表示,该法案缺乏灵活性,未考虑到人工智能的快速发展。2 0 2 3年7月1 0日,中国国家互联网信息办公室发布

47、了 生成式人工智能服务管理暂行办法,这一举措受到学界的高度评价。昆山杜克大学电子与计算机工程教授、大数据研究中心主任黄开竹博士认为,在大量A I G C技术应用和系统涌现后,算法背后的安全性、公平性、可信性、隐私保护和风险等方面的引导和规范相对滞后,但中国的 生成式人工智能服务管理暂行办法 出台非常及时,从技术角度审视非常专业,为A I G C的开发者和使用者加上了“护栏”。因此,在制定人工智能法律法规时,应该找到创新与监督之间的平衡,为其发展提供指导和框架,鼓励创新和研发。其次,制定技术标准。制定A I G C的技术标准旨在对其研发和应用进行指导,确保技术的安全性和可靠性。人工智能技术安全性

48、和可靠性是社会的重要关切,政府制定技术标准可以提升A I G C系统的安全性和可靠性,降低风险。随着O p e n A I和微软的结合,加上谷歌内部的D e e p M i n d,美国保持了技术领先611涉嫌侵犯隐私 意大利数据保护机构对C h a t G P T开发公司展开调查E B/O L.(2 0 2 3-0 4-0 1)2 0 2 3-0 6-1 2.h t t p:/w o r l d.p e o p l e.c o m.c n/n 1/2 0 2 3/0 4 0 1/c 1 0 0 2-3 2 6 5 5 7 8 4.h t m l.负面情绪正持续发酵 多国计划加强对C h a

49、t G P T监管E B/O L.(2 0 2 3-0 4-1 0)2 0 2 3-0 6-1 2.h t t p s:/n e w s.c c t v.c o m/2 0 2 3/0 4/1 0/A R T I l I m r R N U I W 2 j g 9 O l Z 7 9.拜登政府会见企业科技龙头 讨论人工智能潜在风险E B/O L.(2 0 2 3-0 5-0 6)2 0 2 3-0 7-0 1.h t t p s:/w w w.c h i n a n e w s.c o m.c n/g j/2 0 2 3/0 5-0 6/1 0 0 0 2 4 9 5.s h t m l.h

50、t t p:s k x b.x j t u.e d u.c n陈建兵,王明 负责任的人工智能:技术伦理危机下A I G C的治理基点地位。在制定技术标准这一领域,美国走在了世界前列。2 0 2 3年1月2 6日,美国商务部下属的国家标准与技术研究院发布了其第一版 人工智能风险管理框架(A IR i s kM a n a g e m e n tF r a m e w o r k),旨在指导人工智能企业在开发和部署人工智能系统时降低安全风险,避免产生偏见和其他负面后果,提高人工智能可信度,保护公民的公平自由权利。(三)建立企业行业自治自律机制:实现A I G C安全性的“可信赖”在意大利、加拿大宣

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
百度文库年卡

猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服