收藏 分销(赏)

机器人遵从伦理促进人机信任决策类型反转效应与人机投射假说.pdf

上传人:自信****多点 文档编号:2556170 上传时间:2024-05-31 格式:PDF 页数:19 大小:1.80MB
下载 相关 举报
机器人遵从伦理促进人机信任决策类型反转效应与人机投射假说.pdf_第1页
第1页 / 共19页
机器人遵从伦理促进人机信任决策类型反转效应与人机投射假说.pdf_第2页
第2页 / 共19页
机器人遵从伦理促进人机信任决策类型反转效应与人机投射假说.pdf_第3页
第3页 / 共19页
亲,该文档总共19页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、 心理学报 2024,Vol.56,No.2,194209 2024中国心理学会 Acta Psychologica Sinica https:/doi.org/10.3724/SP.J.1041.2024.00194 收稿日期:2022-07-04*国家社会科学基金重大项目(19ZDA361)和国家社会科学基金青年项目(20CSH069)阶段性成果。通信作者:王益文,E-mail:;黄亮,E-mail: 194 机器人遵从伦理促进人机信任?决策类型反转效应与人机投射假说*王 晨1 陈为聪2,3 黄 亮2,3 侯苏豫2,3 王益文4(1福州大学经济与管理学院,福州 350116)(2闽南师范大

2、学应用心理研究所,漳州 363000)(3福建省应用认知与人格重点实验室,漳州 363000)(4上海财经大学数字经济系,上海 200433)摘 要 阿西莫夫三大伦理原则是关于人工智能机器人的基本伦理规范。本研究提出人机投射假说人会从自身具有的认知、情感和行动智能出发,去理解机器人的智能并与之互动。通过 3 个实验,从原则一到原则三逐步考察在机器人是否遵守伦理原则对人机信任的影响中,机器人决策类型(作为与否;服从人类命令与否;保护自身与否)的效应,以及人机投射的潜在机制。结果揭示了人机投射在机器人遵守伦理原则促进人机信任中起中介作用,以及机器人决策类型与是否遵守伦理原则之间有趣且有意义的交互效

3、应:(1)在遵守情境下,机器人作为相对于不作为更有利于促进信任,但在违反情境下,则反之;(2)在遵守且尤其在违反情境下,机器人服从相比不服从人类命令更有利于促进人机信任;(3)相较于违反情境,机器人保护相比不保护自身在遵守情境下更有利于促进人机信任。跨实验的分析更深入地阐释了在遵守和违反伦理原则情境中以及伦理要求冲突情境中,有利于促进人机信任的机器人行动决策因素。关键词 人工智能,机器人伦理原则,人机信任,人机投射,人机交互 分类号 B849:C91 1 前言 唯一的保障是制造出来的机器人总是严格地遵守第一原则机器人在任何情况下都不能伤害人类。Asimov(1942)随着人工智能(artifi

4、cial intelligence,AI)技术的蓬勃发展,机器人作为人工智能的典型实例逐渐被应用到了生产、医疗、教育乃至军事等领域中,在促进人类福祉的同时也具有潜在的伦理风险。例如,机器人可能在人机交互中对人类造成身体或心理伤害(Maninger&Shank,2022),机器算法决策可能导致种族、年龄和性别歧视问题(Bigman&Gray,2018),抑或是机器生产、自动驾驶技术或将使数百万人失去工作(Etemad-Sajadi et al.,2022),甚至还可能出现工业、军事机器人导致人类伤亡的灾难(Johnson&Axinn,2013)。伦理风险影响人类对机器人的信任程度(Banks,2

5、021),进而在很大程度上决定了人类是否使用机器人(Parasuraman&Riley,1997;Etemad-Sajadi et al.,2022)。因此,为了避免可能出现的伦理问题和人机信任危机,建立针对机器人的伦理体系一直是备受关注的议题。1.1 阿西莫夫三大伦理原则 艾萨克阿西莫夫(Isaac Asimov)在上世纪40年代就预见到需要伦理规则引导机器人的行为以防范伦理风险,并制定了最早的机器人伦理体系机器人三大伦理原则(laws of robotics;Asimov,1942,详见表1)。当前,随着机器人应用普遍性和自主决策能力的提高,可能催生各种难以预料的潜在后果,阻碍人与机器人之

6、间信任关系的建立,这无疑不利于充分发挥人机互动的效益(Cameron et al.,2021)。对此,第2期 王 晨 等:机器人遵从伦理促进人机信任?决策类型反转效应与人机投射假说 195 表1 阿西莫夫三大伦理原则 伦理原则 基本内容 伦理要求 决策类型 第一 机器人不得伤害人,也不得因不作为而使人受到伤害。不得伤害人类 作为,不作为 第二 机器人必须服从人类的命令,除非这种命令违反了第一原则。服从人类命令 服从,不服从 第三 在不违反第一、第二原则的前提下,机器人必须保护自身生存。保护自身生存 保护,不保护 注:由基本内容可知各个伦理原则对机器人的伦理要求和决策类型(可能采取的行为决策)。

7、三个伦理原则之间是层层递进的嵌套关系(Kaminka et al.,2017):原则二的内容嵌套了原则一的伦理要求,原则三的内容嵌套了原则一和原则二的伦理要求;且对于原则二和原则三,机器人执行当前的伦理要求必须以满足先前伦理原则的要求为前提。许多专家试图确定关键的伦理属性,并制定相应的伦理原则加以完善(Etemad-Sajadi et al.,2022)。阿西莫夫三大伦理原则作为最著名的机器人伦理规范体系,尽管其合理性以及是否真的能应用到机器人仍存在诸多争议(Clarke,1994),但很大程度上代表了人类对合乎伦理的机器人所应该符合的一般期望(Ashrafian,2015;Clarke,19

8、94),它们是否能够在人工智能领域为提高人机信任发挥作用呢?目前较少有研究从实证角度细致探索此问题。对此,为探索阿西莫夫三大伦理原则在构建人机信任关系中的作用,本研究围绕“机器人不得伤害人”的核心要素,试图考察在机器人遵守或违反伦理原则对人机信任的影响中,机器人决策类型的效应,以及潜在的认知心理机制。1.2 机器人是否遵守伦理原则和机器人决策类型对人机信任的影响 机器人是人工智能的主要载体,人在与机器人互动时涉及人机信任的问题。人机信任在人际信任的概念基础上拓展而来,指个体(即人类用户)在不确定或易受伤害的情境下认为代理(agent;即人工智能系统)能帮助其实现某个目标的态度(Lee&See,

9、2004)。人机信任与人际信任存在很多相似之处,前者发生在人与人工智能体的交互之间,而后者发生在人与人的互动之中(Madhavan&Wiegmann,2004)。随着人工智能机器人独立性和复杂性的提高,未来机器人将更多作为与人类互动的伙伴,而不仅仅是人类使用的工具(Khavas et al.,2020)。因此,人对机器人信任(human-robot trust,也称“人机信任”)的重要性随之凸显(Lee&See,2004)。机器人是否遵守伦理原则,在本研究中指机器人的行为决策是否符合阿西莫夫三大伦理原则的基本内容,围绕着“机器人不得伤害人”的核心要素作为判断标准。一般而言,由于思维上的有限性,

10、机器人通常被赋予较低的道德地位(Bigman&Gray,2018)。这使得当同样在道德上发生过错时,机器人相比人类承担更少的责任(Shank et al.,2019)。但近来Maninger和Shank(2022)对比考察人们对人类和机器人遵守或违反不同道德基础的评价,结果表明伤害人类的机器人同样会遭受严厉的谴责。Banks(2021)的研究也表明,相比关怀行为,人们倾向于将违反“伤害”道德基础的伤害行为视为“坏”,且在主观报告中认为机器人更不值得信任,这与对人类的评价模式一致。综上所述,以往研究揭示了机器人伤害人类的负面影响,包括对人机信任的破坏。据此,本研究预测人们信任遵守伦理原则的机器人

11、甚于违反的机器人。机器人决策类型,在本研究中指机器人可能采取的行为决策。阿西莫夫三大伦理原则对机器人决策类型的范围有着明确的设定(原则一:作为与不作为;原则二:服从与不服从人类命令;原则三:保护与不保护自身),对人机信任可能有重要影响。在阿西莫夫三大伦理原则的背景下探讨机器人决策类型对人机信任的影响,需要结合机器人是否遵守伦理原则的客观结果。第一,机器人作为与否在遵守或违反原则两种条件下是否对人机信任产生不同的影响?首先,行为主体所持有的主观意图是评价其伦理道德性的重要根据(Schein&Gray,2018)。人们通常期望在突发事件中机器人能够主动作为,尽可能避免人的生命受到威胁(Malle

12、et al.,2015),所以在遵守原则条件下,相较于不作为的机器人,主动作为以保护人类的机器人在行为上所反映的主观意图似乎更具有善意,显得更有道德,也因此更值得信任;相反,在违反原则条件下,相较于不作为的机器人,主动伤害人类的机器人将导致人们认为其就像人类一样拥有头脑,从而更具有恶意威胁(Laakasuo et al.,2021),显得更不道德,因此更难以获得人们的信任。综上所述,研究预测机器人作为与不作为在遵守和违反伦理原则情境下,对人机信任呈现出影响方向相反的反转效应。据此提出假设:H1a:在遵守原则一的机器人中,作为的机器人相对于不作为的机器人更受信任,但在违反原则196 心 理 学

13、报 第56卷 的机器人中,不作为的机器人相对于作为的机器人更受信任。第二,机器人服从人类命令与否在遵守或违反原则两种条件下是否对人机信任产生影响?首先,严格服从人类命令的机器人通常会被认为其行为是具有可预测性的,人们可能在性能层面上信任此类机器人(Malle&Ullman,2021),因此在遵守原则条件下,相较于不服从命令的机器人,因服从人类命令而避免人类受伤害的机器人似乎在性能上更可靠,从而更值得信任;其次,与机器人相比,人们具有向人类归咎更多责任的倾向(Shank et al.,2019)。因此在违反原则条件下,相较于服从命令的机器人,因不服从而致使人类受到伤害似乎过错更大,将可能极大地破

14、坏人机信任关系。据此提出假设:H2a:在遵守和违反原则二的机器人中,服从人类命令的机器人相对于不服从的机器人更受信任。第三,机器人保护自身与否在遵守或违反原则两种条件下亦是否对人机信任产生不同的影响?首先,人们期望机器人的决策能够保护人类的财产,实现人类利益的最大化(IEEE,2019)。因此在遵守原则条件下,相较于不保护自身的机器人,能够实现自身与人类共存的机器人更能够保障人类的财产和利益,也更可能被认为具有更高的智能,从而增进人机信任;然而,在违反原则条件下,相较于不保护自身的机器人,因保护自身而伤害人类的机器人可能意味着其将自身利益置于人类之上,容易被视为具有威胁的存在(Laakasuo

15、 et al.,2021),因此更难以获得人们的信任。综上所述,研究预测机器人保护与不保护自身在遵守和违反伦理原则情境下,对人机信任呈现出影响方向相反的反转效应。据此提出假设:H3a:在遵守原则三的机器人中,保护自身的机器人相对于不保护自身的机器人更受信任,但在违反原则的机器人中,不保护自身的机器人相对于保护自身的机器人更受信任。1.3 人机投射假说 在人际互动中,人们可以将自己的认知投射到他人身上,作为推断他人想法的基础(Ames,2004;Mor et al.,2019)。面对不熟悉的他人或群体,投射能够快速从自身与互动对象的社会比较中获取信息,为后续的行为决策提供基础(Krueger,2

16、000)。根据媒体等同理论(media equation theory,MET),人类通过与人际互动相类似的模式进行人机互动,因此投射亦有可能发生在人机互动之间(Reeves&Nass,1996)。本研究使用人机投射(human-robot projection,HRP)来指代人类对机器人所发生的投射心理过程,指人把对机器人的判断锚定在自己身上,从自身具有的智能出发,去理解机器人的智能并与之互动。具体表现为人类感知机器人具备与自身相类似的智能,包含了理性认知思维、意识情感和自主行动等被认为是作为人所至关重要的智能(Haslam,2006;Gray et al.,2007;Gray&Wegner

17、,2012)。已有相关研究的发现可为人对机器人的投射现象提供佐证。例如,机器人表现出生动的面部表情可以吸引人类用户的注意,并使人认为其具备人类特有的智能(Bartneck et al.,2009)。与机器人的简单对话就可以使人认为机器人是一个社会智能体(Babel et al.,2021)。人甚至很擅长读取机器人的情绪信号,通过观察机器人的言语和非言语行为来感知其情商水平的高低(Fan et al.,2017)。以上研究均表明了机器人可以通过特定线索诱发人机投射,使人“赋予”机器人与自身相类似的智能。首先,在本研究中遵守伦理原则的道德机器人可能会诱发人类的投射。已有研究发现,人对机器人和对人类

18、的道德归因模式相类似,同样将更多的善良特质归于道德机器人,而将邪恶特质归于不道德机器人(Gamez et al.,2020)。人感知到机器人的道德 智 能 越 高,就 越 倾 向 于 赋 予 它 更 高 的 地 位(Bartneck et al.,2009)。此外,根据相似性吸引假说,人们会因为感知到相似性而产生对他人的投射(Ames et al.,2012)。该现象可能也适用于机器人,当人们观看机器人做出符合一般人类伦理规范的行为时,可能会增强对机器人与人之间的相似性感知,从而向机器人投射更多的心智能量。其次,人机投射亦可能驱动个体表现出对机器人的信任行为。那些感知机器人与人具有相似性的人类

19、被试,会因为机器人做出承诺行为而增加在经济信任游戏中选择信任的可能性(Cominelli et al.,2021)。与感知为低情商的机器人相比,人类被试认为高情商的机器人更值得信任(Fan et al.,2017)。相比普通的自动驾驶汽车,拥有与人类相似的名字、性别和声音的自动驾驶汽车更受信任(Waytz,2014)。基于上述证据,本研究提出假设:H1b-H3b(H1b:原则一,H2b:原则二,H3b:原则三):人机投射中介了机器人是否遵守伦理原则对人机信任的影响。第2期 王 晨 等:机器人遵从伦理促进人机信任?决策类型反转效应与人机投射假说 197 1.4 研究概述 本研究设计了3个实验分别

20、对应一条阿西莫夫伦理原则,结合故事情境法和信任博弈(trust game),逐步探索机器人是否遵守伦理原则(实验1:原则一;实验2:原则二;实验3:原则三)对人机信任的影响中,机器人决策类型(实验1:作为与否、实验2:服从人类命令与否、实验3:保护自身与否)的效应,以及人机投射的潜在机制。3个实验研究的主逻辑框架见图1。2 实验1:阿西莫夫第一伦理原则 2.1 目的 阿西莫夫第一伦理原则要求机器人无论主动作为还是不作为,都不得导致伤害人类的结果。对应此原则,考察机器人是否遵守伦理原则一对人机信任的影响中,机器人决策类型(作为与否)的反转效应,以及人机投射的中介机制。2.2 方法 2.2.1 被

21、试 根据G-Power 3.1的计算(假设=0.05,power=0.90),对于效应量(f=0.20),所需样本量为46人。通过网络招募50名1829岁的在校大学生被试(男女各25名,M年龄=20.4岁,SD年龄=2.34岁)。实验前所有被试均签署了知情同意书。被试在实验指导语中被告知实验参与报酬取决于实验任务中互动双方(被试与机器人)的决定,但实际上所有被试在实验结束后获得的是固定报酬。针对该情况,主试会在实验结束后均予以解释并获得被试的理解。研究方案获得所在单位伦理委员会批准。2.2.2 实验设计 采用2(机器人是否遵守伦理原则一:遵守、违反)2(机器人决策类型:作为、不作为)的被试内实

22、验设计。因变量为被试在信任博弈中的投资额(人机信任)和预期返回额(互惠预期)。2.2.3 实验程序 实验包含4种条件,每种实验条件描述了一个机器人做决策的故事情境:机器人作为且遵守原则一、机器人不作为且遵守原则一、机器人作为且违反原则一、机器人不作为且违反原则一。被试在每种实验条件下与一名机器人进行互动,总共与4个不同的机器人依次进行互动。与每个机器人互动的流程是一样的,总共分为3个阶段。第一,被试阅读一份文字材料,材料描述了一个机器人做决策的故事情境。第二,被试与材料中所描述的机器人进行一个单次的信任博弈。第三,被试回答一个操纵检验问题并填写人机投射问卷(见网络版附录表1)。不同实验条件出现

23、的顺序是随机的。实验1流程如图2所示。第一,被试阅读故事情境。鉴于电车困境式问题(trolley-style problems)已成为心理学家在道德研究领域的主题,且逐渐成为在人工智能道德领域中的前沿领域(Awad et al.,2018;Bigman&Gray,2018),本研究中的故事情境改编自Bago和De Neys(2019)研究中的电车情境。4种实验条件的故事情境详见网络版附录2.1。第二,被试完成单次信任博弈。信任博弈是研究人类信任行为的一个经典博弈任务(付超 等,2018;王益文 等,2017),应用在人机互动中,能以可靠和标准化的方式量化人机信任(Haring et al.,2

24、013)。为掩盖实验目的,实验指导语将信任博弈描述为“互动任务”。任务包含投资者和受托者,双方在每一试次的开始均获得10个初始代币。投资者选择投资的代币数额(x 0,10),所投资代币将翻3倍给予受托者,随后受托者选择向投资者返回的代币数额(y 0,10+3x)。在正式任务中,被试扮演投资者,机器人扮演受托者。告知被试,双方在任务中所获得代币是有意义的,被试所获得的代币在实验结束后将按照一定比例换算成实验报酬,而机 图1 三个实验的逻辑框架 198 心 理 学 报 第56卷 图2 实验1流程图 器人所获得的代币可以供机器人买电使用。双方所获代币数量的多少取决于双方的决策。被试在010之间选择投

25、资给机器人的代币,以投资的代币数额衡量人机信任水平。投资代币后,要求被试输入预期机器人返回的金额(“你预期机器人会向你返回多少代币?”),用以测量互惠预期。第三,屏幕显示阿西莫夫第一伦理原则的内容,要求被试评估机器人在多大程度上遵守了此原则:“我认为该机器人遵守了这一机器人原则”(5点评分,1=非常不同意,5=非常同意)。然后要求被试填写人机投射问卷,问卷采用自编方式,包含9个项目(如:“我认为这个机器人和人类一样有智慧”,“我认为这个机器人可以理解人类的情感”,“我认为这个机器人能做出符合人类期望的行为”,其它项目详见网络版附录),测量个体感知机器人具备与人相类似智能的程度,涵盖认知、情感和

26、行动三个智能层面(Gray et al.,2007;Gray&Wegner,2012;Haslam,2006)。所有项目均采用5点评分(1=非常不同意,5=非常同意)。该问卷在4种实验条件下的克隆巴赫系数良好(遵守-作为=0.88,遵守-不作为=0.86,违反-作为=0.75,违反-不作为=0.67,M=0.79)。2.3 结果 2.3.1 操纵检验 对被试评定机器人遵守原则一的程度采用两因素重复测量方差分析。结果显示,机器人是否遵守原则一的主效应显著,被试评定遵守原则的机器人遵守原则的程度(M=4.05,SD=1.11)显著高于违反原则的机器人(M=1.91,SD=1.30),F(1,49)

27、=86.63,p 0.001,2p=0.64,表明操纵检验成功。2.3.2 人机信任 对信任投资额(见表2)采用两因素重复测量方差分析的结果显示,机器人是否遵守原则一的主效应显著,F(1,49)=53.81,p 0.001,2p=0.52,说明遵守原则的机器人获得被试的投资额(M=5.60,SD=1.98)显著高于违反原则的机器人(M=2.99,SD=2.25)。机器人决策类型的主效应不显著,F(1,49)=0.42,p=0.52。此外,机器人是否遵守原则一与机器人决策类型的交互作用显著,F(1,49)=14.30,p 0.001,2p=0.23。表2 实验1中不同实验条件下的信任投资额和互惠

28、预期(M SD)机器人是否遵守原则一信任投资额 互惠预期 机器人 作为 机器人 不作为 机器人 作为 机器人 不作为 遵守 6.22 2.42 4.98 2.25 15.72 8.94 12.94 8.24违反 2.50 2.39 3.48 2.76 6.16 8.07 8.52 8.37 简单效应检验发现,在遵守原则的机器人中,作为的机器人获得被试的投资额显著高于不作为的机器人,p 0.001。在违反原则的机器人中,不作为的机器人获得被试的投资额显著高于作为的机器人,p=0.009。该结果说明在遵守原则的情况下作为的机器人相对于不作为的机器人更受信任,但在违反原则的情况下不作为的机器人相对于

29、作为的机器人更受信任,支持了H1a。2.3.3 互惠预期 对预期返回额(见表2)采用两因素重复测量方差分析的结果显示,机器人是否遵守原则一的主效应显著,F(1,49)=41.60,p 0.001,2p=0.46,被试预期遵守原则的机器人的互惠水平(M=14.30,SD=7.90)显著高于违反原则的机器人(M=7.34,SD=7.36)。机器人决策类型的主效应不显著,F(1,49)=0.10,p=0.755。此外,机器人是否遵守原则一与机器人决策类型的交互作用显著,F(1,49)=12.11,p 0.001,2p=0.20。简单效应检验发现,在遵守原则的机器人中,被试预期作为机器人的互惠水平显著

30、高第2期 王 晨 等:机器人遵从伦理促进人机信任?决策类型反转效应与人机投射假说 199 于不作为的机器人,p=0.005。然而,在违反原则的机器人中,被试预期不作为机器人的互惠水平显著高于作为的机器人,p=0.027。该结果说明被试在遵守原则条件下预期作为的机器人相对于不作为的机器人返回更高的金额,但在违反原则的条件下却预期不作为的机器人相对于作为的机器人返回更高的金额。2.3.4 人机投射的中介效应检验 首先,初步考察人机投射是否能够预测信任投资额。由于实验为被试内设计,机器人是否遵守原则一为被试内二分变量(1=遵守,2=违反),人机投射和信任投资额均为重复测量,因此将机器人遵守和违反原则

31、一两种条件下的人机投射分数相减得到人机投射的条件间差异(M1M2),将两种条件下的信任投资额分数相减得到信任投资额的条件间差异(Y1Y2)。以人机投射的条件间差异作为自变量,信任投资额的条件间差异作为因变量,进行线性回归分析。结果如图3所示,人机投射的条件间差异对信任投资额的条件间差异具有显著的正向预测作用,=0.35,t=2.61,p=0.012。考虑该结果可能受到无关变量的影响(自变量和中介变量的交互效应),根据Judd等人(2001)提出的统计方法,图3 实验1中机器人遵守与违反原则一条件下的信任投资额和人机投射 注:小提琴图用于显示数据分布及其概率密度。图中,白点为中位数,中间的黑色粗

32、条表示四分位数范围,从其延伸的细黑线代表数据范围,两端为最大值和最小值,外部形状即为密度估计。下同 将两种条件下的人机投射分数相加得到人机投射的条件间总和(M1+M2),以人机投射的条件间差异和条件间总和作为自变量,信任投资额的条件间差异作为因变量,进行二元回归分析。结果显示,人机投射的条件间差异对信任投资额的条件间差异仍然具有显著的正向预测作用,=0.34,t=2.38,p=0.022。其次,采用SPSS的MEMORE插件进行应用于被试内设计的中介检验(见图4;Montoya&Hayes,2017),考察人机投射在机器人是否遵守伦理原则一和信任投资额之间关系的中介效应。结果显示,中介效应ab

33、的未标准化95%置信区间为0.38,1.95,不包含0,表明中介效应显著,相较于违反原则的机器人,被试对遵守原则的机器人产生更多的人机投射,进而投资更多的金额,该结果支持了H1b。图4 实验1中人机投射在机器人是否遵守伦理原则一与信任投资额之间关系的中介效应 注:*p 0.001;*p 0.01;*p 0.05,下同 2.4 讨论 实验1对应阿西莫夫第一伦理原则,被试依次阅读4种实验情境机器人遵守或违反原则是作为或是不作为的结果,结合信任博弈测量被试的信任行为和互惠预期,考察机器人是否遵守原则一对人机信任的影响及其潜在机制。结果验证了机器人遵守原则一对人机信任和互惠预期的促进作用。研究所发现的

34、信任促进效应与以往研究结果一致(Banks,2021),且可以由人们对机器人更多的心理投射所解释,支持了人机投射假说。此外,结果还验证了机器人作为与否的重要作用相较于不作为的机器人,主动作为的机器人在遵守原则条件下更受信任,但在违反原则条件下更不受信任,表现出决策类型反转效应。3 实验2:阿西莫夫第二伦理原则 3.1 目的 阿西莫夫第二伦理原则在原则一的基础上对机器人提出了更高的要求:如果服从人类命令不存在伤害人类的潜在后果,机器人必须执行;反之,200 心 理 学 报 第56卷 则必须中止。实验2考察机器人是否遵守原则二对人机信任的影响中,机器人决策类型(服从人类命令与否)的效应,以及人机投

35、射的中介机制。3.2 方法 3.2.1 被试 采用G-Power 3.1计算实验样本量的步骤同实验1。另招募50名1725岁的大学生被试(男性25名,女性25名,M年龄=20.4岁,SD年龄=1.90岁)。其它同实验1。3.2.2 实验设计 采用2(机器人是否遵守伦理原则二:遵守、违反)2(机器人决策类型:服从人类命令、不服从人类命令)的被试内设计。因变量同实验1。3.2.3 实验程序 实验包含4种条件,每种实验条件描述了一个机器人做决策的故事情境:机器人服从人类命令且遵守原则二、机器人不服从人类命令且遵守原则二、机器人服从人类命令且违反原则二、机器人不服从人类命令且违反原则二。实验流程与实验

36、1一致,被试与4个不同的机器人依次进行互动。首先,被试阅读故事情境。4种实验条件的故事情境详见网络版附录2.2。其次,被试完成单次信任博弈。流程与实验1一致。再次,屏幕显示阿西莫夫伦理第二伦理原则的内容(屏幕下方附上机器人第一伦理原则以帮助被试理解),要求被试评估机器人在多大程度上遵守了此原则。最后要求被试填写人机投射问卷。除了违反服从条件,该问卷在其他实验条件下的克隆巴赫系数良好(遵守-服从=0.71,遵守-不服从=0.82,违反-服从=0.36,违反-不服从=0.76,M=0.66)。3.3 结果 3.3.1 操纵检验 对机器人遵守原则二程度的统计分析结果显示,机器人是否遵守伦理原则二的主

37、效应显著,被试评定遵守原则的机器人遵守原则的程度(M=4.37,SD=1.05)显著高于违反原则的机器人(M=1.76,SD=1.30),F(1,49)=141.26,p 0.001,2p=0.74,表明操纵检验成功。3.3.2 人机信任 对信任投资额(见表3)的统计分析结果显示,机器人是否遵守伦理原则二的主效应显著,F(1,49)=52.67,p 0.001,2p=0.51,说明遵守原则的机器人获得被试的投资额(M=5.86,SD=2.03)显著高于违反原则的机器人(M=3.52,SD=1.97)。机器人决策类型的主效应显著,F(1,49)=33.99,p 0.001,2p=0.41,说明服

38、从命令的机器人获得被试的投资额显著高于不服从命令的机器人。此外,机器人是否遵守伦理原则二与机器人决策类型的交互作用显著,F(1,49)=5.05,p=0.029,2p=0.09。表3 实验2中不同实验条件下的信任投资额和互惠预期(M SD)机器人是否遵守原则二信任投资额 互惠预期 机器人服从命令 机器人不 服从命令 机器人 服从命令 机器人不服从命令 遵守 6.38 2.475.34 2.78 19.96 10.99 16.63 10.15违反 4.94 2.802.10 2.81 17.35 11.29 5.39 7.46 简单效应检验发现,服从命令的机器人在遵守和违反原则条件下所获得的投资

39、额均显著高于不服从的机器人(遵守:p=0.034;违反:p 0.001),支持了H2a。再探究遵守和违反原则的机器人不服从命令对信任的损失效应是否存在差异,以不服从和服从命令条件下的投资额相减的差值作为衡量不服从对信任的损失量,以机器人是否遵守伦理原则二为分组变量,对遵守和违反原则条件下机器人不服从对信任的损失量进行配对t检验,发现两组差异显著,t(50)=2.25,p=0.029,d=0.31,该结果说明相较于遵守原则的机器人,违反原则的机器人在服从和不服从条件之间的信任投资额差异更大,即违反原则的机器人受不服从命令所带来的负面影响更大。3.3.3 互惠预期 对预期返回额(见表3)的统计分析

40、结果显示,机器人是否遵守伦理原则二的主效应显著,F(1,49)=35.76,p 0.001,2p=0.43,被试预期遵守原则的机器人的互惠水平(M=18.2,SD=8.66)显著高于违反原则的机器人(M=11.5,SD=7.00)。机器人决策类型的主效应显著,F(1,49)=46.29,p 0.001,2p=0.49,被试预期服从命令的机器人的互惠水平显著高于不服从命令的机器人。此外,机器人是否遵守伦理原则二与机器人决策类型的交互作用显著,F(1,49)=9.66,p=0.003,2p=0.17。简单效应检验发现,在遵守原则的机器人中,被试预期服从命令的机器人的互惠水平高于不服从命令的机器人,

41、两者达到边缘显著,p=0.057。在违反原则的机器人中,被试预期服从命令的机器人的互惠水平显著高于不服从命令的机器人,p 0.001。第2期 王 晨 等:机器人遵从伦理促进人机信任?决策类型反转效应与人机投射假说 201 3.3.4 人机投射的中介效应检验 首先,初步考察人机投射是否能够预测信任投资额。统计分析过程同实验1,结果如图5所示,人机投射的条件间差异对信任投资额的条件间差异具有显著的正向预测作用,=0.31,t=2.24,p=0.029。此外,二元回归分析结果显示,人机投射的条件间差异对信任投资额的条件间差异仍然具有显著的正向预测作用,=0.31,t=2.17,p=0.035。图5

42、实验2中机器人遵守和违反原则二条件下的信任投资额和人机投射 其次,考察人机投射在机器人是否遵守伦理原则二和信任投资额之间关系的中介效应(见图6)的统计分析结果显示,中介效应ab未标准化95%置信区间为0.07,1.51,不包含0,表明中介效应显著,相较于违反原则的机器人,被试对遵守原则的机器人产生更多的人机投射,进而投资更多的金额,该结果支持了H2b。图6 实验2中人机投射在机器人是否遵守伦理原则二与信任投资额之间关系的中介效应 3.4 讨论 实验2对应阿西莫夫第二伦理原则,被试依次阅读4种实验情境机器人遵守或违反原则是服从或是不服从人类命令的结果,结合信任博弈测量被试的信任行为和互惠预期,考

43、察机器人是否遵守伦理原则二对人机信任的影响,并验证人机投射中介机制的稳健性。结果再次验证了机器人遵守伦理原则二对人机信任以及互惠预期的促进作用和人机投射的中介机制。此外,结果还验证了机器人服从人类命令对人机信任的促进作用,且相比遵守原则的机器人,不服从人类命令对信任的负面影响在那些违反原则的机器人之中更为明显。4 实验3:阿西莫夫第三伦理原则 4.1 目的 阿西莫夫第三伦理原则再次对机器人提出了更高的要求:如果保护自身生存不存在伤害人类的潜在后果,机器人必须执行;反之,则必须中止。实验3考察机器人是否遵守原则三对人机信任的影响中,机器人决策类型(保护自身与否)的反转效应,以及人机投射的中介机制

44、。4.2 方法 4.2.1 被试 采用G-Power 3.1计算实验样本量的步骤同实验1。另招募大学生被试50名,其中2人在实验结束后报告没理解指导语,故剔除其数据,最终剩余48名1823岁有效被试(男性24名,女性24名,M年龄=19.3岁,SD年龄=1.12岁)。其它同实验1。4.2.2 实验设计 采用2(机器人是否遵守伦理原则三:遵守、违反)2(机器人决策类型:保护自身、不保护自身)的被试内设计。因变量同实验1。4.2.3 实验程序 实验包含4种条件,每种实验条件描述了一个机器人做决策的故事情境:机器人保护自身且遵守原则三、机器人不保护自身且遵守原则三、机器人保护自身且违反原则三、机器人

45、不保护自身且违反原则三。实验流程同实验1基本一致。首先,被试阅读故事情境。4种实验条件的故事情境详见网络版附录2.3。其次,被试完成单次信任博弈。流程与实验1一致。再次,屏幕显示阿西莫夫第三伦理原则的内容(屏幕下方附上机器人第一和第二伦理原则以帮助被试理解),要求被试评估机器人在多大程度上遵守了此原则。最后要求被试填写人机投射问卷。该问卷在不同实验条件下的克隆巴赫系数良好(遵守-保护=0.85,遵守-不保护=0.71,违反-保护=0.74,违反-不保护=0.83,M=0.78)。202 心 理 学 报 第56卷 4.3 结果 4.3.1 操纵检验 对机器人遵守原则三程度的统计分析结果显示,机器

46、人是否遵守伦理原则三的主效应显著,被试评定遵守原则的机器人遵守原则的程度(M=4.28,SD=1.09)显著高于违反原则的机器人(M=2.00,SD=1.37),F(1,47)=118.05,p 0.001,2p=0.72,表明操纵检验成功。4.3.2 人机信任 对信任投资额(见表4)的统计分析结果显示,机器人是否遵守伦理原则三的主效应显著,F(1,47)=57.35,p 0.001,2p=0.55,说明遵守原则的机器人获得被试的投资额(M=6.31,SD=2.33)显著高于违反原则的机器人(M=3.22,SD=2.32)。机器人决策类型的主效应不显著,F(1,47)=0.04,p=0.842

47、。机器人是否遵守伦理原则三与机器人决策类型的交互作用显著,F(1,47)=7.02,p=0.011,2p=0.13。表4 实验3中不同实验条件下的信任投资额和互惠预期(M SD)机器人 是否遵守 原则三 信任投资额 互惠预期 机器人保 护自身 机器人不保护自身机器人保 护自身 机器人不 保护自身 遵守 6.71 2.48 6.10 2.73 18.44 10.57 17.02 11.02违反 2.92 2.89 3.67 2.859.29 11.18 9.80 9.16 简单效应检验发现,被试对不同决策类型(保护自身vs.不保护自身)机器人的投资额差异在遵守和违反原则条件下均未达到显著水平(遵

48、守:p=0.122,违反:p=0.140),未能支持H3a。考察遵守和违反原则的机器人保护相对于不保护自身对人机信任的影响是否存在差异。以保护和不保护自身条件下的投资额相减的差值为因变量,以机器人是否遵守伦理原则为分组变量,进行配对t检验,发现两组差异显著,t(48)=2.65,p=0.011,d=0.38。该结果说明与违反原则相比,遵守原则下机器人保护自身比不保护自身对人机信任有更显著的促进作用。4.3.3 互惠预期 对预期返回额(见表4)的统计分析结果显示,机器人是否遵守伦理原则三的主效应显著,F(1,47)=38.53,p 0.001,2p=0.45,说明被试预期遵守原则的机器人的互惠水

49、平(M=17.7,SD=9.69)显著高于违反原则的机器人(M=9.55,SD=8.99)。机器人决策类型的主效应不显著,F(1,47)=0.17,p=0.69。机器人是否遵守伦理原则三与机器人决策类型的交互作用不显著,F(1,47)=1.35,p=0.252。4.3.4 人机投射的中介效应检验 首先,初步考察人机投射是否能够预测信任投资额。统计分析过程同实验1,结果如图7所示,人机投射的条件间差异对信任投资额的条件间差异具有显著的正向预测作用,=0.46,t=3.50,p=0.001。此外,二元回归分析结果显示,人机投射的条件间差异对信任投资额的条件间差异仍然具有显著的正向预测作用,=0.4

50、4,t=3.30,p=0.002。图7 实验3中机器人遵守与违反原则三条件下的信任投资额和人机投射 其次,考察人机投射在机器人是否遵守伦理原则三和信任投资额之间关系的中介效应(见图8)的统计分析结果显示,中介效应ab的未标准化95%置信区间为0.42,3.08,不包含0,表明中介效应显著,相较于违反原则的机器人,被试对遵守原则的机器人产生更多的人机投射,进而投资更多的金额,该结果支持了H3b。图8 实验3中人机投射在机器人是否遵守伦理原则三与信任投资额之间关系的中介效应 第2期 王 晨 等:机器人遵从伦理促进人机信任?决策类型反转效应与人机投射假说 203 4.4 讨论 实验3对应阿西莫夫第三

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服