收藏 分销(赏)

智能医疗机器人伦理风险:类型、成因与防控策略.pdf

上传人:自信****多点 文档编号:789920 上传时间:2024-03-18 格式:PDF 页数:5 大小:1.28MB
下载 相关 举报
智能医疗机器人伦理风险:类型、成因与防控策略.pdf_第1页
第1页 / 共5页
智能医疗机器人伦理风险:类型、成因与防控策略.pdf_第2页
第2页 / 共5页
智能医疗机器人伦理风险:类型、成因与防控策略.pdf_第3页
第3页 / 共5页
亲,该文档总共5页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、智能医疗机器人伦理风险:类型、成因与防控策略*赵玲玲郭遥摘要:智能医疗机器人颠覆性技术广泛应用于现代医疗场景中,然而其发展与应用过程中引发的伦理风险不容忽视。智能医疗机器人的伦理风险主要包括隐私泄露风险、主体权利认定风险、责任归属风险以及公平公正风险。产生上述诸多伦理风险的原因为技术不完善、算法黑箱和算法歧视、伦理价值缺失以及法律法规不健全。为使智能医疗机器人更好地为人类服务,提出通过负责任创新、道德能力建设、侵权责任合理分配以及制定法律细则等防控策略来规避医疗机器人的伦理风险。关键词:医疗机器人,机器人伦理,伦理风险,风险防控中图分类号:R-05文献标识码:A文章编号:1002-0772(2

2、023)12-0035-05DOI:10.12014/j.issn.1002-0772.2023.12.08Ethical Risks of Intelligent Medical Robots:Types,Causes,Prevention and Control StrategiesZHAO Ling-ling,GUO YaoDepartment of Public Administration,Party School of Hangzhou Committee of the Communist Party of China,Hangzhou 310024,ChinaAbstract:T

3、hedisruptivetechnologiesofintelligentmedicalrobotsarewidelyusedinmodernmedicalscenarios,however,theethicalrisksarisingfromtheirdevelopmentandapplicationcannotbeignored.Theethicalrisksofintelligentmedicalrobotsmainlyincludeprivacydisclosure,subjectrightsidentification,liabilityattribution,fairnessand

4、justice.Thecausesfortheaboveethicalrisksaremainlyduetotheunmaturetechnologies,algorithmblackboxanddiscrimination,lackofethicalvaluesandimperfectlaws.Inordertomakeintelligentmedicalrobotsbetterservehumanbeings,itisproposedthatethicalrisksofmedicalrobotsmustbeavoidedthroughpreventiveandcontrolstrategi

5、essuchasresponsibleinnovation,moralcapacityconstruction,reasonabledistributionoftortliability,andpreventionstrategiesoflawsandregulations.Key Words:medicalrobot,robotethics,ethicalrisk,riskpreventionandcontrol近年来,智能医疗机器人如手术机器人、康复与辅助机器人、医疗服务机器人等被广泛应用于现代医疗场景1,迅速成为国际科技竞争的关键领域。随着智慧医疗产业的蓬勃发展,智能医疗机器人产业的全球

6、市场增长率和发展潜力得到进一步释放,例如,上海浦东张江机器人谷,年工业产值达 221 亿元2。然而,智能医疗机器人技术发展的同时,也引发了一系列伦理方面的隐忧,如果不能正视机器人伦理问题,将会导致人类产生对新兴技术的不信任与排斥心理,破坏社会对医疗人工智能的信心,甚至阻碍医疗科学技术的发展与进步。“机器人伦理学(roboethics)”的学科发展受到伦理学领域的高度重视,对于医疗机器人产生的伦理风险挑战,必须提前研判与适当引导,确保医疗机器人在设计、生产、操作、应用等环节的安全与可靠,促使医疗机器人始终朝着科技向善的方向发展。医学是科技伦理治理的重要领域,在政策和技术等因素推动下,医疗器械智能

7、升级成为医学领域科技发展的重点内容3。智能医疗机器人间接或直接与患者身体接触,关系到患者的生命安全和医疗体验,其智能性、安全性、可靠性和人性化设置必须得到有效保障。我国制定的新一代人工智能发展规划中提出了对隐私、信息安全、知识产权、问责等方面要开展研究。学界对机器人伦理问题持续关注并进行了研究,普遍认为伦理缺位将给社会带来极大的风险隐患。既有研究缺少针对智能医疗机器人伦理风险的类型划分、成因分析与风险防控策略的系统性研究,缺少对医疗机器人领域应用实践案例的深入探讨。研究从伦理学视角出发,深入分析智能医疗机器人的伦理风险类型,风险产生的原因以及探究其伦理风险的防控策略,通过价值伦理的校准,有助于

8、在理论层面和实践层面推动科技伦理研究。1智能医疗机器人利益相关者分析智能医疗机器人伦理风险的防控涉及多方利益相关者,从机器人设计、研发、生产、操作和应用的全过程来看,主要包括设计者、生产者、使用者、医务工作者、医疗机构,考虑到行业监管的需求,政府作为监管主体也纳入到利益相关者中。医疗机器人的伦理风险防控是一项*基金项目:2022 年国家自然科学青年基金项目(62203296);2023 年浙江省社科联研究课题(2023N152)中共杭州市委党校公共管理教研部浙江杭州310024上海交通大学生物医学工程学院上海200240作者简介:赵玲玲(1988-),女,博士,副教授,研究方向:公共政策、科技

9、伦理。E-mail:医学高新技术伦理医学与哲学 2023年 6月第 44卷第12期总第 719 期Medicine and Philosophy,Jun 2023,Vol.44,No.12,Total No.71935系统性复杂工程,必须采取长期主义的多主体风险防控策略。Ackermann 等4认为利益相关者具有不同的特征和利益诉求,面临着不同的利益损益或收益。因此,风险防控目标需要协调利益主体达成协同合作与动态平衡关系。医疗机器人利益相关者的良性互动关系有助于推动伦理风险的防控。首先,机器人设计者和生产者作为供给者决定了机器人的使用意图和生产质量,处在伦理价值嵌入的前端,通过技术创新为市场提

10、供高安全性和可靠性的医疗机器人,主要的利益诉求是获得经济利益和市场份额。其次,医务工作者和医疗机构借助医疗机器人完成复杂度和精准度较高或重复性的医疗工作,用来提高医疗服务效果和获得患者满意评价,从而取得经济收益和社会声誉,由于其涉及机器人的操作和应用环节,最容易引发医疗责任事故,因此认为是伦理责任的核心利益相关者。再次,患者作为使用者,虽然处于伦理风险可能受损的一方相对弱势,但其有拒绝选择医疗机器人的权利,是对伦理风险最为敏感的利益相关者,如果不能满足患者对医疗机器人安全、稳定、人性化的需求,将影响医疗机器人行业的发展。最后,政府作为监管的主导方,是规避伦理风险的重要决策者,必须对医疗机器人伦

11、理风险高度重视,制定相关政策法规,明确利益相关者的责任,起到监管和协调各方利益的作用。2智能医疗机器人伦理风险类型2.1隐私泄露的伦理风险医疗机器人自身具有记忆、扩散和复制等功能,使用过程中能够收集、记录、分析患者的个人隐私信息,尤其是涉及手术内容、生理和心理健康、病情康复情况,以及生活作息规律等敏感信息,如果保存和处理不当,很容易引起医疗数据泄露和滥用,增加个人隐私泄露的伦理风险。例如,远程医疗可以直接读取患者储存在云端的电子病历和医疗信息,甚至是在患者不知情或未被授权的状态下获取的。保障知情权和隐私权是患者最为关心的伦理问题,因为医疗数据泄露可能引起一系列连锁反应,甚至影响到个体正常工作和

12、生活。例如,非法渠道获得的医疗敏感数据一旦泄露,会造成个人求职过程和生产生活中遭到偏见和歧视,部分商家通过医疗数据向目标人群推销医疗器械或衍生医疗产品,增加个人额外的消费支出,影响个体的行为和决策等。除了医疗信息泄露之外,患者的自主权也可能遭到一定侵蚀5,引起自主意愿与医疗策略的冲突。此外,患者容易对医疗机器人产生过度信任与依赖,出现与外部的社交能力减弱,脱离医疗机器人反而病情加重等情况。2.2主体权利认定的伦理风险智能医疗机器人是否具备法律主体地位是对其造成侵权责任认定的核心问题,这也是一个重要的哲学命题。学界普遍认为医疗人工智能的发展阶段决定着智能医疗机器人是否具备法律主体资格6。在弱人工

13、智能时代,医疗机器人属于“物”的法律范畴,并不具有独立的法律主体地位,可以被视为医疗器械7。当发生医疗侵权责任时,主要是对人的责任认定,应当对机器人设计生产者、使用者、医疗机构等进行责任认定。在强人工智能时代,医疗机器人具有自主决策和深度学习的能力,可以通过与环境互动做出自主性判断,具备了一定的道德性,因而当发生医疗事故时,医疗机器人需要承担相应的道德和法律责任,这也意味着其具有了相应的法律主体资格。也有学者认为,现代社会正处于中人工智能时代,即处于从弱人工智能时代向强人工智能时代过渡的阶段8。持有中人工智能时代观点的学者认为,智能医疗机器人既不能被简单视作医疗器械,也不能完全将机器人看作威胁

14、,而是应当重点关注已经产生或即将产生的伦理风险,科学合理地提出风险防控策略。当然,作为“拟主体”9,医疗机器人应当被赋予道德能力并遵循基本道德原则,如遵循不伤害原则、尊重原则、隐私保护原则等。2.3责任归属的伦理风险医疗责任的归属和认定是智能医疗机器人伦理风险防控的关键问题10。手术机器人、医疗穿戴设备等人机互嵌模式促使医疗机器人直接参与医务工作者与患者的道德关系当中,在医疗机器人使用过程中可能发生诸多责任侵权案件。例如,达芬奇机器人医疗纠纷在中国裁判文书网就有 10 多篇,美国的医疗机器人出现过机器人短路、失控、零件掉落人体体内等情况,英国发生多起使用医疗机器人导致患者死亡、受伤等案例11。

15、目前,我国法律尚未对医疗机器人的主体资格做出明确规定,人机互动过程较为复杂,医疗责任的归属和认定成为医疗机器人伦理风险防控的难题。人们不禁产生一系列追问,例如,医疗机器人使用过程中发生故障或异常,到底是机器人本身产品存在缺陷导致的风险?还是使用者操作不当导致的风险?或是医疗人工智能脱离了设计意图产生的意外?医疗机器人是否应当承担相应的伦理责任和道德义务?政府机构实现有效监管的责任边界如何界定?这些问题在现实中很难回答,多方利益相关者责任认定的程度和边界难以精准把握,而一旦责任界定模糊,又很容易产生有组织的不负责任现象12。2.4公平公正的伦理风险智能医疗机器人属于高端医疗设备,其引入和使用的门

16、槛较高,并非所有国家和地区均可享受到平等的智能医疗服务。贫富差距的不断加大、科技发展水平的不均等因素导致接触和使用医疗机器人的机会和渠道不同,智能医疗资源的分配存在是否公平公正的伦理风险13。实际应用中,由于高昂的研发成本、购置费用、操作和维护费用等原因,智能医疗机器人主要用于经济社会发达、人口密集的国家和地区,欠发达地区可能错失医疗技术发展带来的红利,形成新的“智能医疗技术鸿沟”。例如,目前中国研发医疗机器人的团队主要集中在超特大城市的科智能医疗机器人伦理风险:类型、成因与防控策略赵玲玲等医学与哲学 2023年 6月第 44卷第12期总第 719 期36Medicine and Philos

17、ophy,Jun 2023,Vol.44,No.12,Total No.719 研院所及部分高精尖企业,达芬奇手术机器人等只有顶级三甲医院有所购置,部分医疗机器人的“开机费”就超出普通群体的支付能力,更不用说后续的使用治疗费用,这就意味着只有特定地区的特定人群能够享受到智能医疗服务,其他人群不易获得紧缺的智能医疗资源。此外,算法歧视和算法偏见也是医疗机器人不可回避的伦理风险14。通过机器人的深度学习,医疗人工智能习得患者行为,且很难通过技术手段剔除,给特定人群打上医疗标签,可能造成部分群体在就业和职业生涯发展中遭受不公正待遇,影响社会的安全和稳定。3智能医疗机器人伦理风险的成因分析3.1不完善

18、的技术手段智能医疗机器人作为面向临床应用的智能化产品,由于部分关键技术仍不完善,使其在系统集成以及人机交互等方面存在潜在风险。以手术机器人为例,目前市场上的机器人系统均以视觉感知作为主要反馈手段,然而医生在进行操控时缺少真实场景下精细的触觉感知15。不准确或者缺失的触觉感知为医生实施复杂、精准的外科手术过程带来巨大挑战。因此,手术机器人的操作需要经过长期专业的培训,以确保机器人可以被医生正确地操作。对于康复与辅助机器人来说,小型且轻量化的驱动单元仍是制约可穿戴机器人系统发展的主要因素,刚性结构设计以及较大系统重量可能在使用过程中对患者产生二次损伤。值得注意的是,即使医疗机器人的操作者和使用者经

19、过严格的培训,机器人的潜在故障或运行错误仍然可能会导致意外的结果。因此,医疗机器人系统应具备完善的安全冗余设计,机器人系统自身在面对潜在风险发生应具有主动停止和保护机制,同时具备紧急停机的物理按钮16,例如,DeepMind 公司的“切断开关”(killswitch),这些措施可以在机器人出现故障或错误时及时停止机器人的运行,从而减少患者的风险和危险。3.2算法黑箱与算法歧视医疗机器人的智能化和自主化水平是目前科学研究和商业化产品关注的主要方向,但高自主化水平自身由于算法黑箱和算法歧视等具有风险的不确定性和不可预测性。智能医疗机器人系统具有自主决策的能力,运行过程中可能超出设计者的意图和原定程

20、序设置造成不可预见的损害17。例如,机器人辅助的诊疗系统可以根据术前和术中的影像数据对患者的潜在病区进行检测识别并进行相应治疗,然而由于智能医疗机器人使用的人工算法的精准度和泛化性不足,在实际操作中可能产生错误的检测识别结果,进而产生不可预期的错误治疗。医学人工智能算法往往依赖深度学习构建的大模型,算法黑箱导致设计者和研发者存在对相应结果不可解读的现象,更不用说审查和监管机构无法充分对算法进行科学有效地评估,社会公众更是对医疗机器人在诊疗过程中的方案制定逻辑不得而知。此外,医学人工智能算法构建大多使用公开的数据集,样本可能存在年龄、性别、种族等多方面分布偏差,从而导致医疗机器人可能产生相应的算

21、法歧视,即患者在诊疗过程中可能受到潜在的数据偏见。算法的不可解释性和潜在公平性问题会将医疗机器人应用中的伦理风险无限放大,严重影响公众对智能医疗机器人的信赖。3.3伦理价值设计缺失智能医疗机器人技术发展的速度与伦理设计的滞后之间存在一定冲突18。首先,医疗机器人需要向患者提供安全和高质量的医疗服务,在设计阶段应使用成熟可靠的技术手段,并且重点关注算法的可解释性和公平性,确保机器人不会误诊或造成患者伤害,从而提高用户对医疗机器人的信赖程度,例如,美国建立数据隐私实验室,通过软件设计弥补隐私数据的漏洞。其次,机器人的设计应该尊重患者的隐私权和自主权。在进行医疗操作时,医疗机器人会涉及患者个人敏感信

22、息,目前在数据加密、访问控制、身份认证等方面仍缺乏统一的标准保护患者信息和隐私泄露或遭到随意共享和滥用。此外,医疗机器人的设计初衷不应该取代医生,而是应该作为医生的辅助,帮助医务工作者减轻简单重复性工作带来的负担,提高其在复杂手术等诊疗中的操作水平。最后,医务工作者在使用医疗机器人进行诊疗前应接受良好的培训,避免使用不当或操作失误引发民事侵权责任。例如,医疗机构组织过程中未完全告知患者并取得其同意和相关义务的伦理问题,医务人员下达错误指令或操作方法不正确等。3.4法律法规尚未健全医疗机器人的发展处于一个相对较新的阶段,相关的技术和应用还在不断地探索和发展。医疗机器人的使用必须受到严格的监管和管

23、理,以确保其安全性和有效性。医疗机器人的主体地位认定存在法律方面的空白,使用医疗机器人产生的医疗事故认定中涉及多方利益主体的责任划分,责任认定存在一定难度19。此外,对于医疗隐私数据泄露的法律法规多为原则性条款,并没有完善隐私外泄的责任认定细则,因而无法对数据泄露主体进行精准追责。其次,作为一个新兴的行业,医疗机器人的监管和管理机制尚未形成完整的体系,在设计、制造、操作和使用等方面缺乏统一标准和规定。各家医疗机器人厂商可能存在不同的标准和规范,导致医疗机器人的兼容性和互操作性较差,不能很好地满足医疗机构的需求。对医疗机器人从业人员和医生的行为与专业培训要求需作出法律规范,以提高他们的专业技能和

24、操作水平。此外,法律法规不完善可能会导致医疗机器人的研究和开发受到限制,从而影响医疗机器人的发展进程,错失市场机会。4智能医疗机器人伦理风险的防控策略4.1遵循负责任创新的理念科技伦理学者瑞斯尼克20提到诚实、自由、尊重、社会责任等 20 条科技伦理规则和 Friedman21的隐私、知情同意、可解释性、可持续性等理念为我们提供了医疗智能医疗机器人伦理风险:类型、成因与防控策略赵玲玲等医学与哲学 2023年 6月第 44卷第12期总第 719 期Medicine and Philosophy,Jun 2023,Vol.44,No.12,Total No.71937机器人设计的思路。结合医学领域

25、特点,设计符合的伦理规范并将伦理道德内置于技术设计是医疗机器人伦理治理的可行路径。在医疗机器人的设计、研发和创新过程中,要遵循“负责任创新”的理念22,对研究和创新的未知影响和结果进行预测评估,应当嵌入人类的伦理准则并遵循人类的价值规范体系,从而使智能医疗机器人可以产生符合伦理规范的判断和行为,以解决责任伦理问题23。为了不断改善伦理设计的规范性和有效性,需要结合当前我国医疗机器人发展的现状和特点,归纳总结医疗机器人伦理设计的原则、流程和标准,并在设计、生产、应用过程中进行实践,尽可能避免伦理偏见。具体而言,医疗机器人伦理设计主要有两种逻辑路径:一是将伦理规范转化为算法逻辑,通过设计明确的伦理

26、规则,确保机器人智能系统透明、可被理解和可追责,避免带有主观设计偏见的认知决策和算法操作;二是通过增强医疗机器人的学习能力和泛化能力,可以适应系统模拟人类道德和伦理表象,使机器人具备道德感知与伦理抉择的能力。这两种设计逻辑可以相互结合使用,构建出融入价值准则的伦理风险防控策略。4.2注重道德能力建设需要指出的是,在医疗机器人相关关键技术不断突破的同时,我们必须重视机器人的道德能力建设,进而避免医学人工智能等技术突破设计意图或超越人类控制范围的情况进而导致不可逆的严重后果。医疗机器人的深度学习增强了自身的自主性和自主决策能力,参与了道德判断甚至可能具有了一定的道德情绪,因此需要承担相应的道德责任

27、24。构建医疗机器人的道德能力不仅需要结合医学伦理基本原则进行设计,还需要秉持“以人为中心”的理念,充分考虑患者的利益最大化。通过道德能力构建,使医疗机器人成为人类的合作者、守护者和陪伴者,其决策和行动能够依照人类的伦理规范和道德规则,尽可能减少和规避相关的伦理风险。在实践中,系统设计和人机互动过程应以道德价值的遵循为医疗机器人发展的逻辑起点和本质要求。通过设计道德代码等方式,明确不道德行为和道德行为的规则界限和尺度,明晰医疗机器人的各项道德标准和伦理标准。通过建立多主体的信任机制,促使机器人为人类的医疗事业作出更大的贡献。4.3加强伦理评估和伦理审查医疗机器人伦理风险防控需要进行全面的伦理评

28、估,提高伦理考量的优先级。一方面,对智能医疗技术可能造成的负面影响进行预判,监管者做出预判性伦理评估,对存在偏差的地方加以矫正;另一方面,将受到负面影响的相关群体纳入伦理评估和矫正的过程中,形成参与性的伦理评估。与此同时,完善伦理审查制度,通过伦理准则与标准约束来规避医疗机器人可能产生的伦理风险。首先,可以建立由专家、政府相关部门、企业、医疗机构、医务工作者、社会组织以及第三方评估机构等多方利益主体组成的伦理审查委员会,对即将产生的各种伦理风险难题进行伦理审查,例如,对创新原则、算法决策、隐私侵犯、责任认定等关键问题进行定期论证25。此外,相关行业主管部门还需要进一步明确监管责任和监管流程,加

29、快研究制定医疗机器人高伦理风险活动清单,并建立专家复核机制,对相关伦理审查结果进行复核。需要指出的是,医疗机器人伦理风险防控需要不同部门间的相互紧密配合,既包括政府的审查和监管,也包括相关企业和医疗机构的执行,同时需要社会组织及患者个体的参与和反馈,以及加强对医疗机器人相关从业人员的伦理意识培训和教育。只有利益相关者均履行各自的义务和责任,才能实现医疗机器人伦理风险防控的目标。4.4医疗侵权责任的合理分配根据医学伦理中的尊重原则,患者的隐私权、知情权、安全权和选择权应当得到保护。医疗机构和医务人员在高风险特点的智能医疗机器人使用过程中需要承担“高核查监管义务”26,要承担起监督医疗人工智能的职

30、责。例如,对于操作类手术机器人,一旦发现设备故障等情况,医务人员有义务停止设备操作,介入手术过程等减低损害,否则会被追加一定责任。具体而言,医疗机器人因质量安全问题导致医疗事故可以根据产品责任予以追责;医疗机器人在辅助和替代医生手术中发生事故可以根据替代责任予以追责;设计、生产、操作、应用环节中由于疏忽产生的过失可以根据过失行为责任追责等。目前的责任主体还是以人为主,医疗机器人无法承担相应的法律责任,但在强人工智能时代到来之时,医疗人工智能具备决策能力的情况下造成的医疗侵权责任将被认定为机器人责任,应当提前预判其风险防控的道德和法律对策。康德哲学认为道德主体必须具备自由性和自由意志两个条件,当

31、前医疗人工智能虽然不完全具有自由意志,但是人机互动过程确实包含了道德决策,因而有必要承担道德意义上的责任分配,Hanson27的“共同责任”是一种可能进路。当然,突破医疗机器人伦理难题的策略需要设计生产者、医务工作者、医疗机构、政府、公众等建立起多方信任和协同合作的机制。4.5规范伦理风险的法律细则智能医疗机器人直接涉及人类生命健康,结合临床实际、道德伦理与法律规范,其设计研发和应用必须符合伦理和法律要求,尤其是法律层面需要进一步明确相关主体的责任认定标准。医疗机器人的责任归属问题应当从归责原则、责任构成和责任承担等方面作出法律规制的完善28。具体而言,首先,应当保护主体权利,对医疗机器人使用

32、者的隐私权、使用权、选择权等方面作出明确的法律规定。其次,通过机器人强制登记制度进行溯源追责和过程监管,在医疗数据保护方面,应当要求算法具备可解释性,出台医疗数据共享与安全保护的规则。再者,建立企业社会责任的披露机制,定期向社会公布其医疗机器人智能医疗机器人伦理风险:类型、成因与防控策略赵玲玲等医学与哲学 2023年 6月第 44卷第12期总第 719 期38Medicine and Philosophy,Jun 2023,Vol.44,No.12,Total No.719 的研发数据和过程,制定相应的伦理风险防控措施,随时接受伦理审查。然而,马克思的分配公平观一定程度解释了智能医疗机器人分配

33、不均的逻辑,根源在于资本主义应用,应当对引起公平公正伦理风险的资本逻辑提出彻底批判,重构医疗机器人应用的社会价值29。最后,就业政策制定方面,应充分考虑机器人对医疗从业者的冲击,制定培训和技能提升等相关政策削弱技术替代的影响,从法律层面做出适当引导,避免因为智能医疗技术带来新的社会不平等。5结语智能医疗机器人的发展与应用与其他科学技术同样面临着技术的“双刃剑”效应。一方面,人类健康福利得到前所未有的加强,高精准度的手术机器人、灵活便携的康复穿戴设备、迅速便捷的诊疗服务等重塑了现代医疗服务场景,提高了医疗服务效果30。另一方面,智能医疗机器人产生的伦理风险致使人类的主体性受到威胁,人的尊严和隐私

34、遭到侵害,工作方式和就业岗位遭到一定程度的挤压,产生人工智能的价值理性和工具理性之间的撕裂。马克思认为“人的本质是实现过程的善”31,亚里士多德32认为“一切技术都是以某种善为目标”,机器的目标是为人类服务。因此,应当优先考虑人类利益和福祉,体现人文价值要素,必须将伦理价值渗透到医疗机器人设计、生产、操作、应用等环节的全过程,进行“技术伦理”的矫正,只有高度警惕和反思伦理风险才能达到有效防控风险的目标。进一步厘清设计生产者、医疗机构、医务工作者、患者、政府机构等利益主体的义务和责任是防控智能医疗机器人伦理风险的必由之路。值得注意的是,医疗机器人伦理风险防控的目标并非扼杀创新,而是在审慎监管的框

35、架下鼓励科技创新,兼顾平衡监管与创新之间的关系。与此同时,结合经济社会发展规律和科技动态趋势,充分发挥科学共同体、伦理委员会等社会团体的作用,有助于从理论层面和实践层面推动科技伦理风险防控的效果,形成人机协作共生的良性互动关系。参 考 文 献杨丽晓,侯正松,唐伟,等.近年手术机器人的发展J.中国医疗器械杂志,2023,47(1):1-12.1刘晓洁.年工业产值221亿张江机器人谷何以成为医疗机器人高地?N.第一财经日报,2023-05-09(A04).2李志勇,李鹏伟,高小燕,等.人工智能医学技术发展的聚焦领域与趋势分析J.中国医学装备,2018,15(7):136-145.3ACKERMAN

36、NF,EDENC.Strategicmanagementofstakeholders:The-oryandpracticeJ.LongRangePlanning,2011(2):179-196.4王晓娣,方旭红.医疗机器人伦理风险探析J.自然辩证法研究,2018,34(12):64-69.5杨萌,石旭雯.医疗机器人伦理设计进路初探J.中国医学伦理学,2020,33(7):873-878.6莫宏伟.强人工智能与弱人工智能的伦理问题思考J.科学与社会,2018,8(1):14-24.7陈吉栋.论机器人的法律人格:基于法释义学的讨论J.上海大学学报:社会科学版,2018,35(3):78-89.8段

37、伟文.面向智能解析社会的伦理校准J.上海交通大学学报:哲学社会科学版,2020,28(4):27-33.9翟振明,彭晓芸.“强人工智能”将如何改变世界:人工智能的技术飞跃与应用伦理前瞻J.人民论坛学术前沿,2016,95(7):22-33.10刘小璇,张虎.论人工智能的侵权责任J.南京社会科学,2018(9):105-110.11张锦英,张洪江.过度医疗辨析:集体无意识与有组织的不负责任行为J.医学与哲学,2019,40(10):10-13.12杜严勇.机器伦理刍议J.科学技术哲学研究,2016,33(1):96-101.13于雪,王前.“机器伦理”思想的价值与局限性J.伦理学研究,2016(

38、4):109-114.14郭松,杨明杰,谭军.手术机器人面临的一大挑战:力触觉反馈J.中国生物医学工程学报,2013,32(4):499-503.15赵京,张自强,郑强,等.机器人安全性研究现状及发展趋势J.北京航空航天大学学报,2018,44(7):1347-1358.16任晓明,王东浩.机器人的当代发展及其伦理问题初探J.自然辩证法研究,2013,29(6):113-118.17黎常,金杨华.科技伦理视角下的人工智能研究J.科研管理,2021,42(8):9-16.18刘宪权.人工智能时代机器人行为道德伦理与刑法规制J.比较法研究,2018(4):40-54.19瑞斯尼克.科学伦理的思索M

39、.何画瑰,译.台北:韦伯文化公司,2003:62-86.20FREEMAN R E.Strategic management:A stakeholder approachM.Boston:Pitman,1984:32.21瓦拉赫,艾伦.道德机器:如何让机器人明辨是非M.王小红,译.北京:北京大学出版社,2017:34-41.22薛桂波,闫坤如.“负责任创新”视角下技术伦理的政策转向J.大连理工大学学报:社会科学版,2018,39(1):9-14.23闫坤如.机器人伦理学:机器的伦理学还是人的伦理学?J.东北大学学报:社会科学版,2019,21(4):331-336.24张雪,尹梅,刘丹茹.伦理

40、审查委员会跟踪审查制度探析J.医学与哲学,2012,33(4A):26-27.25新华社.发展负责任的人工智能:我国新一代人工智能治理原则发布EB/OL.(2019-06-17)2022-07-19.https:/ F A.Beyond the skin bag:On the moral responsibility ofextendedagenciesJ.EthicsInfTechnol,2009,11(1):91-99.27韦弗,郑志峰.人工智能机器人的法律责任J.财经法学,2019,25(1):140-160.28徐建文.马克思公平正义观的发展轨迹J.唯实,2008(12):32-35.

41、29赵新刚,段星光,王启宁.医疗机器人技术研究展望J.机器人,2021,43(4):385.30HURKAT.PerfectionismM.NewYork:OxfordUniversityPress,1993:46-62.31亚里士多德.尼各马可伦理学M.苗力田,译.北京:商务印书馆,1999:52-56.32收稿日期:2022-12-21修回日期:2023-06-01(本文编辑:于磊)智能医疗机器人伦理风险:类型、成因与防控策略赵玲玲等医学与哲学 2023年 6月第 44卷第12期总第 719 期Medicine and Philosophy,Jun 2023,Vol.44,No.12,Total No.71939

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服