1、2022.12百家博采百家博采我国人口老龄化呈现老年人口规模庞大、老龄化速度快、高龄化、空巢化问题日益突出、未富先老和老年抚养比大幅上升的特点,老年人日常生活与社会供给“不适老”、社会环境“不友好”之间的矛盾凸显,传统家庭所承载的养老能力已经逐渐开始呈现超负荷运转。解决当今社会养老问题就必须在突破传统方式之中寻求一种人工智能技术的帮助。随着生物识别、机器学习、情感感知计算等人工智能技术的飞速发展,为衍生一种新型的智能化、现代化养老服务提供了技术可能和发展契机。但随之而来的养老人工智能伦理问题,伦理学的主体、人工智能定位和是否能满足老年人生理及心理的双重需求?这一系列悬而未决的伦理性问题不仅影响
2、着老年人的身心健康和国家相关战略,还对社会道德体系的构建带来了不小的冲击。本文将聚焦于人工智能养老过程中产生的伦理争议,探索其中伦理责任归属问题。一、人工智能在养老服务中的发展机遇(一)现实需求:人口老龄化严重第七次全国人口普查数据显示,我国60岁及以上老年人口2.6402亿,占总人口比重18.70%,较第六次人口普查上升5.44%。从增速看,我国5.4%老龄人口增速远高于全球2.5%平均值1。据民政部预测,“十四五”期间,我国老年人口将超过3亿人,从轻度老龄化迈入到中度老龄化阶段。同时根据国家卫健委最新发布数据,我国居民人均预期寿命已经由2020年的77.93岁提高到2021年的78.2岁。
3、且从上世纪70年代以来中国开始实行计划生育政策,第一代独生子女的父母已迈入老年人行列,我国的家庭结构逐渐呈现“421家庭”模式,即四个老人、一对夫妻、一个孩子。而这种“倒金字塔”的家庭结构,也衍生出一些现实问题来2。人工智能养老应运而生,以其多样化的服务内容与方式、高质量的服务水平得到了广大老年人以及其子女们的认可。(二)制度支持:相关政策出台面对我国日益增长的养老需求,国家也相继出台相关政策来积极应对我国严峻的养老问题,加速完善我国智能养老服务体系的构建与完善。2015年国务院印发关于积极推进“互联网+”行动的指导意见,明确提出“促进智慧健康养老产业发展”的目标任务;2017年发布的智慧健康
4、养老产业发展行动计划(2017-2020年)提出,到2020年基本形成覆盖全生命周期的智慧健康养老产业体系,建立100个以上智慧健康养老应用示范基地与行业领军企业;2021年印发的智慧健康养老产业发展行动计划(2021-2025 年)提出,到2025 年,智慧健康养老产业科技支撑能力显著增强,产品及服务供给能力明显提升,老年“数字鸿沟”逐步缩小,提升人民养老幸福感、获得感、安全感3。这些利好政策与信息意味着智能养老已开始上升到国家战略层面,其加速了人工智能养老发展应用。(三)经济转型:养老服务产业改革我国正处于产业转型升级关键期,党的十九大报告指出,要坚持以供给侧结构性改革为主线,促进新旧动能
5、转换,促进产业发展提质增效升级,这是我国能否抢占未来竞争制高点的关键。大力发展人工智能养老服务体系,围绕解决传统养老服务地痛点、难点,开展现代化人工智能养老应用试点示范建设,加大智能化养老产品创新投资和创业帮扶力度,推动人工智能养老标准化、规范化发展。养老服务产业转型改革,为人工智能赋能养老产业提供了良好契机。同时“银发经济”的蓬勃发展也为其助力,相关数据显示,2020 年老年人口总消费达到了 7.01 万亿元,老年市场规模达 5.4 万亿元。预计到 2050 年,我国老年人口总消费将达到 61.26万亿元,老年市场规模将达 48.52 万亿元,未来 30 年将是我国养老产业的黄金发展期4。人
6、工智能养老的伦理责任祝媛梦彭凤招(湖北大学 湖北 武汉 430062)【摘要】人口老龄化已成为全球普遍现象,且已被公认为21世纪重大世界性社会问题之一。人工智能引入养老服务迎来发展机遇,但同时也对引发了诸多伦理风险,对现有的社会伦理责任体系造成新的冲击。新工具主义说、机器伦理说以及混合责任说是目前学界针对人工智能责任争议的三种观点,面对人工智能在养老服务中产生的伦理责任问题,我们应从整体出发,厘清生产设计者、使用者和管理者等与人工智能的所有关联方所肩负的伦理责任,以期对该责任争议做出回应。【关键词】人工智能养老;人口老龄化;伦理责任【中图分类号】B80【文献标识码】A【文章编号】1671-06
7、33(2022)24-000118-031182022.12百家博采百家博采二、人工智能在养老服务中引发的伦理争议(一)对“孝养”传统产生冲击,淡化子女赡养义务人工智能引入养老服务引发最大的伦理争议即对“孝养”传统带来了解构的风险,淡化子女对老人的赡养义务及情感沟通。子游问孝,子曰:“今之孝者,是谓能养。至于犬马,皆能有养。不敬,何以别乎?”即现在所说的孝就是指养活父母就行了,如果对父母不敬不爱,那和饲养狗马有什么分别呢?然而人工智能在养老服务中的介入无疑增加了这种错误孝养观念与行为的发生,“子女缺位”现象造成养老活动中“子女-父母”双向互动演变成为单向“人-机”模式,5尽管随着科技进步包含情
8、感感知与互动的人工智能正在不断完善,但其本质还是基于冰冷的程序所运行,终究无法满足老年群体多样化的情感需求。“孝养”绝不能只停留在物质层面,人工智能养老打破“孝养”传统的平衡,对“孝养”伦理造成威胁。(二)老人主体地位受到威胁,人被物化风险增加人工智能养老首要目的是为老年群体服务,要始终明确该活动的主体对象是老人,但随着由弱人工智能向强人工智能不断发展更新的过程中,老年人存在被物化风险。人工智能技术是将人的身体解构为各种数据,再将其录入程序,老人日常生活中所需要的照顾护理需求就被转化为编码指令,在预先编写好的程序中机械执行,这种人机交互的机械化通常会使老年人产生被物化之感,违背了“以人为本”的
9、伦理原则,使得老年群体逐渐丧失作为人的主观意识,忽视其主体地位与尊严,被物化的伦理风险增加。Astell曾指出,“机器干预对使用者究竟是赋权还是非人化?二者之间权力与控制的微妙伦理问题值得思考。”6(三)责任主体模糊不清,事故责任难以归责人工智能技术的广泛应用造福了人类,但同时它衍生出来的人工智能产品与服务也给人类社会带来诸多责任划分问题,这些具有半自动或全自动性质的机器和服务在出现事故问题时责任主体如何判定?而这些人工智能体是否作为能独立承担行为责任的主体呢?2016年轰动世界的著名无人驾驶汽车品牌特斯拉在美国佛罗里达州公路上行驶时,正处于自动驾驶状态的Model S与一辆拖拉机挂车正面相撞
10、,车主当场死亡。事故发生的第一时间未能判定此次车祸责任归属,究其根本在于人们无法判定车祸责任是从属于编写该自动算法指令的设计者,还是执行该指令的人工智能机器本身。而人工智能在养老领域上的应用此类问题更应引起重视,老年人作为社会弱势群体,对新兴事物本就了解甚少,属于事故高发人群,如不尽快明确此类事故责任主体原则,无法想象人工智能在今后甚至更远的未来会引发什么样的矛盾事故。(四)受人工智能技术支配,老人隐私安全受侵害在这个信息数据大爆炸的时代,我们时刻被各种信息包围着,足不出户网购、网页浏览以及各种智能化机器的使用在给人们带来便利的同时,我们的喜好与需求特征被标签化,这些海量的数据标签就构成每个人
11、的用户画像,而后这些用户画像被贩卖,信息共享化已成为无法避免的事,所以这个时代每个人都是“赤裸”的,如我们时常会遇到自己与朋友讨论过的东西在你打开某 APP时就会收到精准推送的情况。人工智能技术就是在庞大数据库支撑下,人类被进行不同程度的数据化剖析,个人信息安全与隐私毫无保障。人工智能应用于养老之中同样也面临这样的伦理问题,实时监控老人身体健康数据,并监控照护老人吃饭、吃药、睡觉甚至洗澡,在享受方便的同时,老年人的所有隐私数据都被人工智能机器永久记录,甚至传至云端大数据库中,许多数据被过度采集和重复利用,造成隐私、安全、责任、歧视等一系列问题。三、人工智能伦理责任说及人工智能在养老服务中的伦理
12、责任回应(一)三种人工智能伦理责任说关于人工智能所引发的伦理责任争议问题,学术界一直讨论与争议不断。但大体分为三种,大卫J冈克尔(DavidJ.Gunkel)将其概括为:新工具主义说、机器伦理说以及混合责任说7。乔安娜布赖森(Joanna Bryson)是新工具主义说的代表人物,他认为机器被人类生产制造出来,然后进行销售,所以可以合法地将其视为奴隶,而不是同伴8。麦克尔安德森(Michael Anderson)和苏珊安德森(Susan L.Anderson)则主张机器伦理,他们不仅认识到考虑日益自主的系统的道德责任和能力的迫切需要,甚至提出计算机可能比大多数人更善于遵循伦理理论,9在机器伦理说
13、致力于有效地寻求扩大道德主体的范围,这包括以前被排除在外并被边缘化的纯粹作为人类行动的中立工具的东西。最后一种人工智能伦理责任说是尝试通过一种中间混合方法来平衡这两种对立的立场,F.艾伦汉森(F.Allan Hanson)认为要在交互的人和人工智能技术及机器的网络中分配责任。汉森提出“扩展代理主体理论”,认为这个问题可以通过考虑“共同责任”的理论来解决,在这种理论中道德代理权分布在人类和技术工件上。这种伦理责任说将行为主体和承担行为责任的主体从只有人扩展到人与非人10。(二)人工智能在养老服务中的伦理责任回应1.生产设计者:明确告知风险,贯穿“以人为本”的设计1192022.12百家博采百家博
14、采发展理念人工智能在养老服务应用中蕴含的种种伦理风险,本着追根溯源的原则,最先考虑到的是生产设计环节。人工智能的生产设计者具有一般人不具有的相关专业知识,这就使得他们比其他人更早、更全面、更清晰了解人工智能技术及产品在运行过程中可能产生的积极和消极影响,“是认知和解释技术风险的一个特殊群体”,11所以他们身上肩负着不同于社会其他大众更大的伦理责任,人工智能的生产设计者有责任将人工智能在养老服务应用中可能存在的潜在风险提前且如实告之公众,由使用的所有相关者判断是否能接受该潜在风险。同时生产设计者身上还肩负者人工智能技术创新和优化的责任,要将“以人为本”的科学发展观应用其中,在人工智能养老技术与产
15、品开发时要时刻明确,任何实践活动都应以人为本并充分发挥人的主体性,技术只是一种人们用以改造世界的工具和手段,科技由人创造发明并服务于人。2.使用者:正确认识人工智能养老,融合“孝养”的传统理念目前人工智能还属于世界范围内先进研究领域。人类在人工智能的工作原理、工作机制等方面中了解的内容还相对不足12。人工智能在养老领域的使用者直接主体为老年人,间接主体为老年人的子女,所以加强对人工智能养老的认识是老年人和其儿女的共同责任。在这个“后喻时代”,老人本就对新生事物接触少、接受能力弱,所以在面对人工智能的介入时难免会产生抵触或不理解的消极情绪,我们应该提高人工智能养老服务使用者的科学素养,要主动避免
16、人工智能技术的滥用对人类智能的负面影响。老年人的儿女,要对人工智能养老在老人生活中所发挥作用有清晰认知,其只发挥辅助和补足作用,并非代替子女承担赡养责任,应当继承和发扬我国“孝养”传统,不能止步于最低层次的“孝”,也要从精神上滋养父母。只有使用者正确认识人工智能养老,了解自己何种情况下有可能涉及人工智能技术对人类智能的影响带来的伦理风险,才知自己承担何种伦理责任。3.管理者:注重人工智能养老顶层设计,为相关从业人员提供正确伦理导向理念人工智能养老的管理者既包括产品管理者还有相关政府管理部门,从技术产品管理到市场投放应用管理,需要这两者共同承担责任。顶层设计是运用系统论的方法,从全局出发,对事情
17、或项目的各方面、各要素进行统筹规划,以集中有效资源,高效快捷地实现目标。人工智能养老顶层设计应立足于解决养老实际问题,对于出现人工智能责任划分制定专门政策规则;抓住养老重大问题,有效解决人工智能在养老服务运行中出现的伦理问题;应具有全球视野,增进国际间交流合作,力求突破当前人工智能养老的伦理责任难题。管理者还要为相关从业者提供正确的伦理价值导向,倡导“求真”和“求实”精神,从内心让各方明晰应承担的伦理责任。管理者应关注人工智能及其对人类智能影响的新进展,协调组织有关专家和相关利益者对人工智能技术和产品在不同方面对人类可能产生的影响做出合理的预测和判断,合理划分人工智能在养老服务中所产生主要伦理
18、责任和部分伦理责任。参考文献1UnitedNations.WorldPopulationProspects:2022Z/OL.https:/population-un-org-:443/wpp/.2孙娇娆.新型目标群体的养老问题研究基于双核家庭视角J.西部财会,2017,(12):61-64.3中华人民共和民政部.智慧健康养老产业发展行动计划(2021-2025 年)EB/OL.http:/ in Ageing,2006,7:1525.7Gunkel J David.Mind the Gap:Responsible Robotics andtheProblemofResponsibilit-y
19、J.EthicsandInformationTechnology,2017(1):1-148Bryson J J.Robert Should Be SlavesM/Close Engagements with Artificial Compani-ons.Amsterdam:John Benjamins,2010:63-749Anderson Michael,Anderson L Susan.The Status of MachineEthics:a Report from the AAAI SymposiumJ.Mind and Machines,2007(1):1-1010Hanson F ABeyond the Skin Bag:on the Moral Responsibility of Extended AgenciesJ Ethics and InformationTechnology,2009(11):91-9911龙翔论工程师作为技术风险制造者的伦理责任J.自然辩证法研究,2012,28(06):66-7012王大洲技术哲学、技术实践和技术理性J.哲学研究,2004(11)120