收藏 分销(赏)

可解释人工智能的军事应用前景分析.pdf

上传人:自信****多点 文档编号:3129055 上传时间:2024-06-19 格式:PDF 页数:7 大小:5.68MB
下载 相关 举报
可解释人工智能的军事应用前景分析.pdf_第1页
第1页 / 共7页
可解释人工智能的军事应用前景分析.pdf_第2页
第2页 / 共7页
可解释人工智能的军事应用前景分析.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、智能与算法智能与算法S智能与算法Aug.20232023年8 月Journal of CAEITVol.18.No.8第8 期中国电子学研完院学報doi:10.3969/j.issn.1673-5692.2023.08.002可解释人工智能的军事应用前景分析张林超,周树德,朱宇晴(中国电子科技集团公司智能科技研究院,北京100041)摘要:未来战争中,无人智能作战力量参与战争的比重将进一步加大,协同运用传统的“有人”作战力量和人工智能技术赋能的“无人”作战力量将成为重要作战形式,不可解释带来的“信任不足”极可能导致错失转瞬即逝的战机,限制军事智能应用发展。文中在定义可解释人工智能的基础上,研究

2、分析了可解释人工智能的发展目标、主要方法和国内外现状,针对装备研发人员、作战指挥人员、任务执行人员、军备控制人员等用户对象剖析了对可解释性的不同需求,从增强协同效能、促进安全可控、加速装备研发、遂行攻击对抗等4个方面提出了可解释人工智能的军事应用前景。关键词:可解释人工智能;军事智能;人机协同中图分类号:E919;TP18文献标志码:A文章编号:16 7 3-5 6 92(2 0 2 3)0 8-6 90-0 7Analysis of Explainable Artificial Intelligence in Military ScenarioZHANG Lin-chao,ZHOU Shu-

3、de,ZHU Yu-qing(Artificial Intelligence Institute of CETC,Beijing 100041,China)Abstract:In future wars,unmanned intelligent combat forces will further participate,the collaborationbetween traditional“manned forces and“unmanned forces empowered by artificial intelligence tech-nology will become furthe

4、r important,and the“lack of trust caused by unexplained AI will most likelylead to missing the time window and limiting the applications of military intelligence.Based on the defini-tion of explainable artificial intelligence,this paper studies and analyzes the development goals,mainmethods and curr

5、ent situation of explainable artificial intelligence,analyzes the different needs for ex-plainability for user objects such as equipment R&D personnel,combat command personnel,task imple-mentation personnel,and arms control personnel,and puts forward the military application prospects ofexplainable

6、artificial intelligence from four aspects:enhancing synergy efficiency,promoting security andcontrollability,accelerating equipment R&D,and carrying out attacks to AI system.Key words:explainable artificial intelligence;military intelligence;human-machine collaboration0引言随着人工智能技术的飞速发展,各类创新成果持续涌现,人工智

7、能应用已经进人人们生活的各个方面,人工智能领域技术发展热度持续攀升、行业应用层出不穷、投资规模逐年扩大,具有智能化特点的收稿日期:2 0 2 3-0 6-0 8修订日期:2 0 2 3-0 7-0 1武器装备也正在涌现,在经济、社会、科学、军事等领域形成重要影响。然而,技术的进步往往是一把“双刃剑”,人工智能在带来便利、引发变革的同时,也对国家政治、经济和社会安全带来诸多风险和挑战,不断引发网络安全、社会就业、法律伦理等问题,可知、可控、可信逐渐成为人工智能发展中的关键问题。发展可信人工智能的核心需要关注安全性、鲁张林超等:可解释人工智能的军事应用前景分析2023年第8 期691棒性、公平性、

8、隐私保护等各方面问题,而可解释性是上述问题的技术核心。尤其是在军事领域,随着协同运用传统的“有人”作战力量和人工智能技术赋能的“无人”作战力量成为未来战争的主要特征,如何更好地理解、信任并有效管理基于人工智能的“无人”作战力量未来将成为人工智能大范围应用的关键瓶颈,不可解释带来的“信任不足”将极有可能错失转瞬即逝的战机,大大降低人工智能在辅助决策和作战过程中的可用性和适用性。提高人工智能的可解释性逐渐成为解决上述问题的重要方向。1可解释人工智能概述人工智能从一开始就被定义为是一门用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的技术科学,它的核心目标是替代人、辅助人以及超越人,像人一样

9、具备学习、推理和适应能力是人工智能的基本要求 。可解释性是人们基于既往经验和认知产生的一种主观判断,本质上是双方基于逻辑共识达成的相互理解,相关研究存在不同的理解和角度侧重。文献 2 认为可解释性是人们可以理解决策原因的程度,可解释人工智能的起点是观察人们之间怎样解释,偏重于参考借鉴社交理论;文献 3 认为可解释性是模型为了使其功能清楚或易于理解而展现的细节和理由,偏重于怎样更清楚的表达或模拟人工智能的决策流程;文献 4 认为可解释人工智能是“智能体以一种可解释、可理解、人机互动的方式,与人工智能系统的使用者、受影响者、决策者、开发者等,达成清晰有效的交流沟通,以取得人类信任,同时满足各类应用

10、场景对智能体决策机制的监管要求”,更强调解释的对象和信任。本文在对相关文献的理解基础上,参考字典中对解释的定义“在观察的基础上进行思考,合理地说明事物变化的原因、事物之间的联系或者事物发展的规律”,认为人工智能的可解释性是:人工智能在为相关对象提供最大化交互便利的基础上,能够对自身决策机制和行为结果提供的原因、联系或规律的完整程度。可解释人工智能是具备可解释性的人工智能,在具备人工智能基本的学习性、自主性、协同性的基础上,还具备以下三个特征:一是可交互性,能够适应不同的解释对象,在提供最大化观察便利的同时,通过快速的交互沟通逐步建立认知共识;二是可复现性,在执行环境和初始条件相同的条件下,人工

11、智能系统重复执行时能获得相同的结果,并能通过改变一项、多项或全部初始条件实现复现 5 ;三是可预测性,自身决策机制和行为结果具备一定程度上潜在的因果关系、内外联系或必然规律。可解释人工智能需要解决的问题本质上是把端到端给出结果的“黑盒”人工智能转化为“白盒”人工智能的过程,参照用“白盒”设计解释“黑盒”问题 的方法,可解释人工智能研究目前已在以下两个方向取得了进展,具备进一步发展的基础。(1)建立本身具备可解释性的人工智能模型(白盒方法)。通过对人工智能建模问题的分析,在已有知识、经验的基础上开发或发现透明、可模拟、可分解的人工智能模型,主要分为:基于规则的模型,包括专家系统 7 、决策树模型

12、 8 等;基于单个或多个特征的回归和分类模型,包括线性回归、逻辑回归、广义加性模型、K-近邻算法等 9;基于关系的模型,包括贝叶斯方法 10 、因果模型 1 等。(2)使用可解释性方法对模型做出模拟解释(黑盒方法)。参考一般的解释表达方法,主要包括文本描述、符号表达等文本解释方法,降维分析、标记等可视化方法,分段解释、网络切割等局部解释方法,数据实例提取等举例解释方法,敏感性系数识别等特征分析方法 32国内外政策现状克劳赛维茨在战争论中认为所有的军事行动都发生在“战争迷雾”中,而现代战争中许多信息化武器装备的目的就是拨开迷雾,尽量减少影响指挥决策的不确定性,实现“知已知彼、百战不殆”。随着智能

13、化武器装备的大规模应用,“黑盒”人工智能将导致另一种“智能迷雾”,即并无法完全确认智能无人装备是否存在未知漏洞,是否已被安装了后门,是否会在关键时刻失控、失智、失能。人工智能可解释理论研究是拨开这种“智能迷雾”的重要途径。人工智能作为目前国际争先发展的战略焦点,世界各国在重视技术发展、领域应用的同时,也在加大对人工智能安全的关注重点,可解释性目前主要作为保证人工智能安全的重要手段出现。2 0 2 1年11月,联合国UNESCO通过的首个全球性的人工智能(Artificial Intelligence,A I)伦理协议人工智能伦理建议书中,把“透明性和可解释性”作为人工智能十大原则之一,国际社会

14、对人工智能可解释性的重视正在逐步加强2023年第8 期692中网电石绒学研完院学報2.1国外现状2.1.1美国美国作为人工智能技术的前沿活跃者,最早开始将可解释性人工智能纳入研究视野。国家层面,早在2 0 16 年美国白宫颁布的国家人工智能研究和发展战略计划 7 中,就强调确保人工智能系统的安全性、可靠性与可解释性,提高人工智能技术的可解释性是保证其稳定性和可靠性的重要环节。2 0 19年美国总统签署的行政令维护美国人工智能领导地位的行政命令 13 中提出的8 个战略重点中,有一条是“建立安全可靠的人工智能系统”,主要内容是提高可解释性和透明度、建立信任、加强验证、防范攻击、实现长期人工智能安

15、全和价值调整。由美国国家人工智能安全委员会发布的2 0 2 1最终报告 4 专门用一个章节提出要“在人工智能系统中建立合理的信心”,从职责与机制、领导机构、鲁棒可靠目标、人机交互与合作以及测试、评估、检验和验证(TEVV)模式等5 个方面提出了具体要求。国防层面,美国国防部2 0 18 年发布的人工智能战略概要:利用人工智能促进安全与繁荣报告 15 ,提出要进一步投资研发具有弹性、鲁棒性、可靠性和安全性的人工智能系统,并计划与学术界、私营企业和国际社会在军事领域共同推进人工智能伦理和安全。美国国防部高级研究计划局(DARPA)自2 0 15 年起布局安排了一系列下一代人工智能项目,包括可解释的

16、人工智能 16 (XAI,2016年提出,主要通过研究实现可解释的机器学习模型,帮助终端用户理解、适当地信任并有效地管理人工智能系统)、终身学习机器 17 (L2M,2 0 17 年提出,主要通过目标驱动感知的适应性学习和仿生学习构建终身学习机制)、机器常识 18 1(MCS,2018年提出,主要通过基于发展心理学的婴儿学习方法和基于常识知识库的成人学习方法让机器具有像人类一样的常识推理能力)。其中,XAI项目2 0 17 一2 0 2 1年历时4年,包括加州大学伯克利分校、加州大学洛杉矶分校、俄勒冈州立大学、SRIInternational公司和雷神公司等在内的13家研究机构参与研究,主要取

17、得了以下三方面成果:一是探索研究了可操作的概率/因果模型、视觉显著性地图/网络、强化学习算法状态机、贝叶斯教学等一系列机器学习可解释方法;二是将机器学习和解释心理学理论结合,形成了一系列描述模型和人机接口工具,支撑人类认识人工智能推理过程;三是开发了一个解释评分系统(ESS),通过精心设计的心理学实验评估人工智能解释的有效性。此外,2 0 2 0 年8 月,美国国家标准与技术研究院发布了可解释人工智能四项原则草案 19。草案中明确了可解释人工智能的四项原则,总结了可解释AI理论并对可解释算法进行了概述,旨在通过提高人工智能的准确性、可靠性、安全性、鲁棒性和可解释性来建立对人工智能的信任。微软、

18、谷歌、IBM等美国科技企业目前已纷纷加大投入,积极探索、落地可解释人工智能的行业方案,并分别发布了一系列可解释人工智能相关工具和服务,如谷歌的模型卡片机制、IBM的事实清单、微软的数据集数据清单等 2 0 O2.1.2欧盟和英国欧盟和英国支持可解释人工智能研究主要是防范和处理人工智能可能带来的道德、伦理和法律风险,认为增强用户信任、发展可信人工智能是其人工智能伦理和治理的核心。2 0 18 年4月,英国议会发布的英国人工智能发展计划、能力与志向 2 1 中提出,人工智能应遵循可理解和公平性原则。2 0 18年12 月,欧盟人工智能高级专家组出台的可信人工智能伦理指南草案 2 2 中要求,人工智

19、能发展方向应满足人类监管纠错、技术安全及鲁棒、隐私保护和数据治理、透明及可解释、算法公平及无歧视、环保及社会影响、问责制度等7 个方面的要求。具体操作上,欧盟主要责成数据控制者来保证基本的可解释性。2 0 18 年5 月生效的通用数据保护条例 2 3 中明确,数据控制者在收集数据时应向数据主体告知“有关自动化决策内部逻辑的有意义信息、对数据主体的重要意义和设想的后果”,鼓励数据控制者能够向数据主体解释某项人工智能自动化决策的具体原因。2 0 2 1年4月欧盟委员会发布的首个欧洲人工智能法律框架提案人工智能法2 41中规定“高风险AI系统的设计和开发方式应确保其操作足够透明,以使用户能够理解系统

20、的输出并适当地使用它”2.1.3其他国家俄罗斯政府将人工智能视为一种颠覆性技术,但目前在可解释领域尚无明确的发展方向和实施计划信息,总的来看仍较为注重实用性能,从Uran-6排雷机器人、Uran-9多功能机器人战车、Platform-M侦查无人车等自动化装备来看,俄罗斯在人工智能领域发展应还以可控制、可发挥实效为主,前瞻性的可解释研究仍未提升到战略层面 2 5 。日本 2 6 张林超等:可解释人工智能的军事应用前景分析6932023年第8 期印度 2 7 、加拿大 2 8 等国家发布的政策文件也多以人工智能领域人才培养、技术研发和产业推进为重点。可解释人工智能作为下一代人工智能技术之一,是各国

21、人工智能技术具备一定发展基础后开展的重点领域布局。2.2国内现状我国在2 0 17 年国务院颁布的新一代人工智能发展规划 2 9 中就明确把“不确定性推理与决策”作为高级机器学习理论方向的重点研究内容,数年来,我国人工智能应用领域增速明显,在多个领域实现了技术突破,人脸识别、语音识别等部分领域影响力已经超过美国,可解释人工智能研究也逐步在医疗、金融等多个行业领域呈现百花齐放的态势。2019年6 月,国家新一代人工智能治理专业委员会发布新一代人工智能治理原则一一发展负责任的人工智能 30 ,提出了“负责任的人工智能”概念,给出了人工智能治理的框架和行动指南,并提出了“和谐友好、公平公正、包容共享

22、、尊重隐私、安全可控、共担责任、开放协作、敏捷治理”八项基本原则。国家网信办等部门于2 0 2 1年9月印发的关于加强互联网信息服务算法综合治理的指导意见 31 中明确指出,要“引导算法应用公平公正、透明可释”,对算法的数据使用、应用场景、影响效果等开展日常监测工作,“深人分析算法机制机理”、“推动算法公开透明”,做好算法结果解释。2 0 2 2 年6 月,国家自然科学基金委发布可解释、可通用的下一代人工智能方法重大研究计划 32 ,主要瞄准打破现有深度学习“黑箱算法”的现状,试图建立规则和学习的有效融合机制。产业方面,中国信通院与京东探索研究院联合撰写的可信人工智能白皮书 33 中,从如何落

23、实全球人工智能治理共识的角度出发,分析了实现可控可靠、透明可释、隐私保护、明确责任及多元包容的可信人工智能路径,并对可信人工智能的未来发展提出了建议。腾讯公司于2 0 2 2 年初发布可解释AI发展报告2 0 2 2【2 0】,对其在计算机视觉、医疗等领域的可解释实践进行了介绍,认为透明性和可解释性是人工智能领域的基本问题,需要在考虑受众需求、应用场景、技术与经济可行性等因素的基础上平衡考虑,并建议采取措施增强社会公众的算法素养,探索人机协同的智能范式。总的来看,各国在可解释人工智能领域的布局和发展都与本国的战略、文化和价值观息息相关,美国的主要目的是为了保持人工智能在全球的领先地位,欧洲国家

24、主要聚焦防范和处理人工智能可能带来的道德、伦理和法律风险,我国则以发展“负责任的人工智能”为主要目标开展技术探索3可解释人工智能在军事应用中需求分析3.1发展目标随着人工智能技术研究与应用不断取得突破性进展,智能化变革开始扩展至军事、金融、医疗、法律、安全等涉及关键决策判断的领域,人工智能给出的结果必须能够“说服”用户,才能进一步转化为应用,尤其是在军事领域,环境高复杂性、博奔强对抗性、响应高实时性、信息不完整性、边界不确定性等军事对抗特点要求人工智能装备具备更高的可用性、可靠性和安全性,只有具备可解释性才能建立作战人员对人工智能装备的充分信任。例如,通过博奔对抗训练出来的人工智能指挥决策算法

25、能够使获胜概率达到99.999%,可是并无法保证此次不是其中的0.0 0 1%,更无法保证算法不存在缺陷,可解释性才能弥补决策安全的最后一环。2 0 2 2 年11月我国外交部发布的中国关于加强人工智能伦理治理的立场文件【34 中明确指出,各国政府应要求研发主体努力确保人工智能研发过程的算法安全可控,在算法设计、实现、应用等环节,不断提升透明性、可解释性、可靠性,逐步实现可审核、可监督、可追溯、可预测、可信赖。具体到军事智能领域,人工智能的可解释性应当能够支撑开展可靠性、维修性、测试性、保障性、安全性、环境适应性等装备“六性”的分析评估。3.2基于军事人员分类的可解释要求人工智能系统的研发人员

26、、使用人员、监管人员是人工智能可解释性的主要受众,本文将其统称为人工智能干系人。不同的干系人对人工智能的可解释性提出了不同需求,以军事智能为例,各类干系人对可解释性的不同要求主要体现在以下三个方面,如表1所示。(1)研发人员:作为具备人工智能专业知识的设计人员和技术人员,需要在满足设计功能和指标要求的前提下,尽可能实现在设计、研发、测试等全生命周期的透明可视、安全可信,最大化的可解释性能够帮助研发人员优化系统设计、缩短研发周期、加速测试迭代,减少错误缺陷和隐藏风险(2)使用人员:这类人员是军事智能系统的使用者,也是需求提出者,可进一步分为指挥人员和作战人员。指挥人员的任务是协调调配军事智能系统

27、6942023年第8 期中网电石科学研究院学報资源以达成全局任务目标,需要人工智能系统提供较高的可解释性,使其能够理解其决策运行机制,确保风险可控,并能融人整个任务体系。作战人员的任务主要是利用人工智能系统完成执行,往往并没有相关专业背景,更关注安全性和可靠性,并不需要特别深人的解释,但在解释方式要求更加通俗易懂。(3)监管人员:这类人员的主要任务是防范和监管人工智能系统的应用风险,要求整个开发使用流程置于监管合规的前提下,更多关注人工智能系统安全边界的确定性和事故问责的可追溯性,对可解释性的要求仅次于研发人员。表1军事领域各类人员对可解释性的相关要求解释对象分类设计环节研发环节应用环节能力要

28、求是否满足,装备体系是功能性能是否符合预设,可审核、可监督、可追溯、装备研发人员过程可模拟、可分解、可观察否适配,模型逻辑是否自洽可预测、可信赖能力要求是否满足,可审核、可追溯、可预测、可信任务体系是否适配,能力要求是作战指挥人员可信赖,决策算法运行机制赖,能力影响要素和依据,与其他体系要素的协同否满足关系,风险可控制能力要求是否满足,可预测、可信赖,是否存在安任务执行人员能力要求是否满足可信赖全边界具备安全评估和管控功能,是否武器全生命周期支持必要的人是否存在安全边界,是否存在风险预警,能够避免军备控制人员存在规则约束,是否符合伦理规机交互,责任主体明确,数据和误用恶用、滥杀滥伤,可审核、可

29、监督、可追溯、可范、法律法规和政策体系算法安全可控、普适公平预测、可信赖4可解释人工智能的军事应用前景当前,人工智能正在改变乃至颠覆军事领域的方方面面,智能化战争普遍被认为是未来战争的主要形态,人机密切协同开展侦察感知、指挥决策、火力打击、毁伤评估等作战任务成为主要特征。2 0 2 2年爆发的俄乌冲突中,各类察打一体无人机、巡飞弹、无人车、情报智能辅助系统纷纷亮相,整体上呈现出机械化、信息化、智能化多态并存特点,无人装备初露锋芒,智能化以后台作战保障体系的形态若隐若现。未来,随着军事智能技术的进一步发展,无人智能作战力量参与战争的比重将进一步加大,人机协同、多域联合有望成为对抗新常态,而可解释

30、人工智能则是增强协同效能、促进安全可控、加速装备研发、遂行攻击对抗的重要手段。4.1增强协同效能动态、复杂、多变的未来智能化战争中,作战窗口转瞬即逝,反应时间大幅压缩,人机协同效能取决于两个关键因素:指挥决策时间和人机交互速度。可解释人工智能在以下两个方面给出了提升方案。(1)通过自辩性解释缩短指挥决策时间。不同于传统人工智能仅提供结果,可解释人工智能在提供结果的同时一并提供决策过程和逻辑,能够更有效的构建和促进人机信任,大幅减少了指挥决策过程中潜在的求证和犹豫过程(2)通过适应性解释加快人机交互速度。适应性解释是可解释人工智能的高级阶段,通过对使用人员的认知能力进行判断并多次沟通,建立共识并

31、提供针对性解释,在将模型的可解释性与使用人员的认知结构对齐的过程中通过交流时学习提高协作效率。以DARPA的指挥官虚拟参谋为例,人工智能系统对海量情报源数据和复杂的战场态势开展深度挖掘,为指挥官提供主动建议、高级分析、人机交互等全过程决策支持,可解释人工智能能够进一步提升决策建议的可信度和可靠性,推动该项目进行实时指挥决策流程4.2促进安全可控当前,深度学习等主流人工智能算法普遍作为“黑盒”解决方案使用,通过对海量数据的学习训练形成推理能力。数据的不完备性和模型的不可解释性往往导致模型决策过程不可控。一方面,缺乏可解释性的“黑盒”算法可能潜藏缺陷,算法设计者的“偏见”可能无意识的嵌人算法系统,

32、从而导致大范围的错误结果。另一方面,海量训练数据中可能存在偏差或“污染”,在数据输人过程数据中难以发2023年第8 期张林超等:可解释,工智能的军事应用前景分析695现,可以通过对训练过程中的异常行为分析纠正以无人智能装备的使用为例,美国Northpointe公司开发的犯罪风险评估算法COMPAS中,黑人曾被错误地评估为具有高犯罪风险的概率两倍于白人,试想如果该算法在不知情的情况下用于无人装备,后果十分严重。此外,在军控领域,可解释性能够为人工智能监管提供依据,使得政策法规的制定机构或相关人员能够参与到人工智能系统的开发中,避免人工智能对人类社会的法律和道德体系产生冲击。4.3加速装备研发可解

33、释人工智能在检测数据模型中的缺陷以及数据本身偏差的同时,能够更准确地确定错误发生的位置和原因,从而可以用于改进数据模型。当设计者不完全理解人工智能是如何做出决定的时候,就无法进一步优化人工智能的表现;而具备可解释性的人工智能能够将人类知识和经验嵌人到人工智能算法中,通过算法和领域专家的交互学习变得更加灵活和智能。此外,人工智能装备还存在自我演进的学习性特征,装备研制和试用训练深度铰链,可解释性能够提供问题诊断和预测性修复途径,缩短研制和训练的迭代升级周期。以舆情对抗中的图片深度伪造为例,大多数人工智能算法生成的图片中存在手、耳朵等细节无法完美刻画甚至畸形的问题,既有训练数据缺乏细节的原因,也与

34、算法推断信息的能力有关,未来通过可解释性研究可以针对性提出专题数据集或算法改进措施4.4遂行攻击对抗近年来,通过故意在训练数据中混人错误样本来实施的对抗样本攻击已经成为人工智能对抗中的常用手段之一,可解释性算法既是防御对抗样本攻击的手段,也是制造对抗样本的重要工具。未来战争不仅仅是人与人的对抗,也将围绕人工智能系统的对抗展开,黑盒可解释方法有助于破解发现对方人工智能系统存在的规律或漏洞,利用对抗样本等手段予使其失能失效失控,大幅降低整体作战效能。2022年12 月美国兰德公司发布的研究报告中指出,可以分别通过增加图像噪声、添加超声波干扰、调整角反射器等对基于人工智能的光电系统、语音识别系统、合

35、成孔径雷达造成干扰,降低识别准确率或误导情报信息。可解释人工智能方法通过对目标人工智能系统的分析推演,有助于进一步积累掌握各类缺陷漏洞和攻击手段,形成关键时刻能够反制对手人工智能系统的“杀手铜”武器。55结语随着ChatGPT掀起又一轮人工智能发展浪潮,人工智能系统的能力“涌现”越来越频繁,人工智能大模型在军事领域的工程化应用也将陆续落地。然而,大模型生成不正确、无意义或不真实内容的现象(即大模型“幻觉”)仍然普遍存在,什么原因导致了能力“涌现”、“涌现”的能力是否可控、有没有“涌现危险能力等问题与人工智能安全息息相关,加强可解释人工智能的研究是解决上述问题的关键,呕需布局构建可解释人工智能技

36、术体系,在可解释人工智能的基础上确保军事智能应用可靠、可信、可控。参考文献:1WEST D M.The future of work:robots,AI,and auto-mation,Brookings Institution Press M.WashingtonDC:Brookings Institution,2018.2MILLER T.Explanation in artificial intelligence:Insightsfrom the social sciences J.Artificial Intelligence,2019,267:1-38.3ARRIETA A B,Di

37、AZ-RODRiGUEZ N,SER J D,et al.Explainable artificial intelligence(XAI):Concepts,tax-onomies,opportunities and challenges toward responsibleAIJ.Information Fusion,2020,58:82-115.4杨强,范立欣,朱军,等.可解释人工智能导论 M.北京:电子工业出版社,2 0 2 2.5陈玉华,林来宾测量系统重复性误差和重现性误差的分析方法 J经济技术协作信息,2 0 0 7(11):3.6GUIDOTTI R,MONREALE A,RUGG

38、IERI S,et al.Asurvey of methods for explaining black box models J.ACM Computing Surveys,2018,51(5):1-42.7GROSAN C,ABRAHAM A.Rule-Based Expert SystemsM.Massachusetts:Addison-Wesley,2011.8LAURENT H,RIVEST R L.Constructing optimal binarydecision trees is NP-Complete J.Information Process-ing Letters,19

39、76,5(1):15-17.9LI L,UMBACH D M,TERRY P,J,et al.Applicationof the GA/KNN method to SELDI proteomics data J.Bioinformatics,2004,20(10):1638-1640.1O KIM B,RUDIN C,SHAH J A.The Bayesian case mod-el:A generative approach for case-based reasoning andprototype classification C/International Conference onNe

40、ural Information Processing Systems.Cambridge:MITPress,2015:1952-1960.2023年第8 期696中网电子绒学研究院学報 11 Pearl J.Causal Inference:History,Perspectives and U-nification(A n I n t e r v ie w w it h Ju d e a Pe a r l)R/O L.2023-07-03.http:/ftp.cs.ucla.edu/pub/stat_ ser/r523.pdf.12 中国信通院编译组美国国家人工智能研究和发展战略计划 R.北

41、京:中国信通院,2 0 16.13 Executive Office of the President.Executive Order onMaintaining American Leadership in Artificial IntelligenceEB/0L.2023-07-03.https:/trumpwhitehouse.ar-chives.gov/presidential-actions/executive-order-maintai-ning-american-leadership-artificial-intelligence/.14 National Security Co

42、mmission on Artificial Intelligence(NSCAI).2021 Final ReportEB/OL.2023-07-03.https:/www.nscai.gov/2021-final-report/.15 United States Department of Defense.Summary of the2018Department of Defense artificial intelligence strategy:har-nessing AI to advance our security and prosperity R.Washington D.C:

43、United States Department of Defense,2019.16 GUNNING D,VORM E,WANG J Y,et al.DARPAsexplainable AI(XA I)p r o g r a m:A r e t r o s p e c t i v e D B/OL.2023-07-03.https:/doi.org/10.1002/ail2.61.17 NEW A,BAKER M,NGUYEN E,et al.Lifelong Learn-ing Metrics DB/0L.2023-07-03.http:/10.48550/arXiv.2201.08278

44、.18 李鹏飞.DARPA启动“机器常识 项目,开发人工智能的常识推理能力 J.科技中国,2 0 18(11):1.19 PHILLIPS P J,HAHN C A,FONTANA P C,et al.FourPrinciples of Explainable Artificial Intelligence R.2020.DOI:10.6028/NIST.IR.8312-draft.20腾讯研究院可解释AI发展报告2 0 2 2:打开算法黑箱的理念与实践 Z.2022.21 陈骞英国人工智能发展建议与促进计划 J上海信息化,2 0 18(8):8 0-8 2.2 2 汪丽欧盟委员会发布可信人工

45、智能伦理指南草案 J信息安全与通信保密,2 0 19(1):1.2 3】王灏晨.欧盟通用数据保护条例对人工智能发展的影响及启示J中国经贸导刊,2 0 18(17):20-22.2 4王婧.从欧盟人工智能法提案看我国如何应对人工智能带来的社会风险和法律挑战J.网络安全和信息化,2 0 2 1,6 4(8):42-44.2 5 华盾,封帅弱市场模式的曲折成长:俄罗斯人工智能产业发展探微J俄罗斯东欧中亚研究,2 0 2 0(3):98-128.2 6 李哲,李娟,李章杰,等日本人工智能战略及人才培养模式研究J现代教育技术,2 0 19,2 9(12):21-27.【2 7 方旭,张茂林,张赛宇印度人

46、工智能教育战略及启示 J信阳师范学院学报:哲学社会科学版,2 0 2 0,40(3):73-79.28周伯柱,赵晏强加拿大人工智能发展现状 J科技促进发展,2 0 19(8):7 6 2-7 7 0.2 9国务院新一代人工智能发展规划 Z.2017.30 国家新一代人工智能治理专业委员.新一代人工智能治理原则一发展负责任的人工智能 Z.2019.31】国家互联网信息办公室.关于加强互联网信息服务算法综合治理的指导意见 Z.2021.32 国家自然科学基金委.可解释、可通用的下一代人工智能方法 EB/0L.2023-07-01.https:/ R.北京:中国信息通信研究院,2 0 2 1.34国家外交部.中国关于加强人工智能伦理治理的立场文件 EB/0L.2023-07-01.http:/ _674633/zclc_674645/rgzn/202211/t20221117_10976728.shtml.作者简介张林超(198 7 一),高级工程师,主要研究方向为军事智能总体设计、网络信息安全、大数据应用等;周树德(198 0 一),高级工程师,主要研究方向为军事信息系统总体、智能技术和军事应用等;朱宇晴(1995 一),助理工程师,主要研究方向为人工智能情报研究。

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
百度文库年卡

猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服