收藏 分销(赏)

与AI“共舞”:系统化视角下的AI-员工协作.pdf

上传人:自信****多点 文档编号:2729048 上传时间:2024-06-05 格式:PDF 页数:15 大小:1.24MB
下载 相关 举报
与AI“共舞”:系统化视角下的AI-员工协作.pdf_第1页
第1页 / 共15页
与AI“共舞”:系统化视角下的AI-员工协作.pdf_第2页
第2页 / 共15页
与AI“共舞”:系统化视角下的AI-员工协作.pdf_第3页
第3页 / 共15页
亲,该文档总共15页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、心理科学进展 2024,Vol.32,No.1,162176 2024 中国科学院心理研究所 Advances in Psychological Science https:/doi.org/10.3724/SP.J.1042.2024.00162 162 与 AI“共舞”:系统化视角下的 AI员工协作*尹 萌 牛雄鹰(对外经济贸易大学国际商学院,北京 100029)摘 要 AI员工协作是一个以高效完成任务为目标,由“AI人组织”构成的交互系统。促进 AI员工协作对于推动 AI 与实体经济的深度融合,以及员工在数字化时代的心理健康与职业发展至关重要。AI 与员工的交互关系错综复杂,现有研究呈现

2、碎片化特点,缺乏对 AI员工协作的整体认识。因此,有必要在厘清相关概念的基础上,对 AI员工协作的相关研究进行系统地梳理。通过对相关研究的系统性回顾,本文厘清了 AI 和 AI员工协作的内涵,梳理了 AI员工协作系统的构成要素,分析了构成要素的作用和影响,并进一步基于系统化的视角构建了一个研究框架。最后,基于 AI员工协作的研究框架提出未来研究展望。关键词 人工智能,AI员工协作,系统化视角,研究框架,I-P-O 分类号 B849:C93 1 引言 AI 作为推动科技跨越发展、产业优化升级、生产力整体跃升的重要驱动力量,基础性、关键性作用日益凸显。但如何推动各类 AI 技术的落地应用,促进AI

3、和实体经济融合,成为AI产业发展亟需解决的难题。微观层面,大量组织在积极拥抱 AI 时,也在眼花缭乱的技术浪潮中遭遇了数智化转型的失败(Canhoto&Clear,2020)。许多企业在 AI 上投入大量的资源,但却未能获得预期收益,甚至还造成了一系列负面的后果(Fountaine et al.,2019)。德勤在针对 152 项 AI 项目的调查中发现,47%的项目存在 AI 与员工协作困难的问题;中国数字经济发展观察报告的调查结果也显示,尽管 64%的高管推动 AI 项目,但仅有 12%的 AI与员工有效合作。究其原因,主要在于 AI 带来的结构性改变与员工认知、情感和行为反应之间张力,反

4、映在 AI 与员工之间未能形成持久、稳定的协作关系(谢小云 等,2021)。因此,揭示 AI员工协作的内在机制,帮助组织在优化 AI员工协作时有的放矢,对于促进 AI 产业的发展以及提升 收稿日期:2023-03-28*对外经济贸易大学研究生科研创新项目(202221)。通信作者:尹萌,E-mail: AI 的组织有效性有重要意义。在此背景下,组织中的 AI 研究也如火如荼地展开。AI 作为底层技术在组织中的应用方式较为丰富,不同应用情境下的研究关注焦点也不尽相同。AI 可以完全独立地完成工作(如,AI 驱动的自动化系统),也可以扮演管理者的角色(如,AI 算法管理),履行计划、执行、控制、绩

5、效反馈等管理职能(Tong et al.,2021);也可以扮演同事或助手的角色,与员工协作完成任务(Jia et al.,2023)。不足的是,尚未有文献在对 AI 不同应用方式做出区分的基础上,对 AI 和 AI员工协作的概念内涵进行系统阐述,这导致了组织中 AI 含义的模糊以及不同 AI 应用方式的概念间的混淆。此外,AI员工协作的研究具有跨学科的碎片化和复杂性,整体呈现研究范式不统一、理论不清晰和机制未厘清的特点。尽管已有综述类文献关注 AI员工协作的相关议题(如:Seeber et al.,2020;Tsai et al.,2023),但尚未有文献对已有研究进行系统梳理并构建 AI员

6、工协作的研究框架,厘清 AI员工协作的构成要素、内在机制,这也导致缺乏对 AI员工协作研究现状和未来发展走向的整体把握。鉴于此,本文对 AI员工协作的相关文献进行了全面检索(检索流程和规则如表 1 所示)。根据Webster 和 Watso(2002)的建议,对文献的发表信息、理论基础、核心研究结论等内容进行了编码,第 1 期 尹 萌 等:与 AI“共舞”:系统化视角下的 AI员工协作 163 表 1 检索流程和规则 要点 详情 最后检索时间 2023 年 5 月 15 日 数据来源(1)Web of Science 核心合集 SSCI 数据库(2)中国知网 CSSCI 数据库 检索语句 TS

7、=(Artificial intelligence OR Human-AI collaboration OR Human-AI interaction OR Human-robot collaboration),中文检索词一致 筛选依据(1)将研究方向限定为商业(business)、管理(management)、应用心理学(applied psychology)的相关方向;(2)由于初筛获得了超过两千条结果,本文进一步筛查了管理学、人力资源管理与组织行为学、应用心理学、管理信息系统领域的重点期刊,共 38 本;(3)逐个阅读检索文章的标题、摘要,进一步剔除重复和不相关的文献;(4)采用“滚雪球

8、”的检索方法,仔细查阅已筛选出来的文献,对引用的重要研究进行整理,收集遗漏文献作为补充 筛选结果 合计 109 篇相关文献 深入阅读文献后,基于系统性综述的方法组织文章内容并构建研究框架。本文首先阐述了工作场所 AI 和 AI员工协作的概念、内涵、维度;其次,基于 AI员工协作的系统化分析视角,梳理了AI员工协作系统的输入项、过程项和输出项,并在此基础上构建了一个研究框架。基于本文提出的研究框架和现有研究的不足,提出未来研究展望。通过上述研究,有助于我们更深刻、系统地理解 AI员工协作,推动组织中 AI 研究的深化,进而更好地帮助组织在实践中优化 AI员工协作,提升 AI 的组织有效性。2 工

9、作场所 AI 的概念、内涵和维度 随着 AI 在工作场所的广泛应用,“人工智能”、“机器人”、“算法”等与 AI 相关的概念层出不穷,AI 在工作中担任的职能或扮演的角色也多种多样。为此,本文首先厘清工作场所 AI 的概念、内涵和维度,并对本研究关注的 AI员工协作进行详细地阐述。2.1 工作场所 AI 的概念 AI是指能够执行通常与人类思维相关的认知功能的机器,如学习、互动和解决问题(Nilsson,1971)。在心理学和组织管理领域,AI 的功能主要包括从外部(包括自然语言)或其它计算机系统收集信息,解释信息、预测模式、推导规则或预测事件,生成结果、回答问题或向其它系统提供指示,评估其行动

10、的结果并改善其决策系统以实现特定目标(Ferras-Hernandez,2018)。在对未来技术的设想中,AI 是能够和人类一样,甚至能够比人类更好地执行所有任务的通用智能。但受限于技术发展水平,具有通用智能的超级 AI 或强 AI目前尚未成熟。本研究主要关注的是目前在组织中被广泛使用的弱 AI 或狭义 AI,即能够实现对人类智能的片段进行模拟的各种 AI 驱动的智能技术,比如人脸识别、声音识别和理解、智能推荐算法、聊天机器人等(Charlwood&Guenole,2022)。AI 在现实中的表现形式包括机器人 AI、虚拟AI 和嵌入型 AI(Glikson&Woolley,2020)。机器人

11、 AI 是指由 AI 技术驱动的具备实体形态的机器人。其中,最受组织管理研究者关注的是 AI 驱动的社交机器人(Yam et al.,2022),例如 Pepper 机器人。除了 AI 驱动的社交机器人外,常见的机器人还包括工业机器人。根据国际机器人联合会的定义,社交机器人是为人类或设备执行有用任务的实体,而工业机器人是自动控制的、可再编程的多用途操作臂(IFR,2022)。前者由 AI 驱动,而后者是预先编程设计的(Yam et al.,2022)。虚拟 AI是指由 AI 驱动的虚拟主体,这种 AI 不具备实体形态,例如 ChatGPT、AlphaGo、Siri 等。其中,由于机器人 AI

12、和虚拟 AI 都是应用 AI 理论与技术制造的 AI 机器,能自主活动的软件或者硬件主体,因而又被统称为智能体 AI 或智能体(龚群,2023)。最后,嵌入型 AI 没有视觉表现或特别的身份,它嵌入到不同类型的应用程序中,比如搜索引擎和GPS地图,嵌入型 AI 对于使用者而言是“隐形”的,而用户可能并不知道它的存在(Glikson&Woolley,2020)。2.2 AI员工协作的内涵 在探究技术与工作关系的研究中,传统的分164 心 理 科 学 进 展 第 32 卷 析视角倾向于将技术视为工具或媒介:工具视角关注员工如何利用技术工具提升绩效表现(Nelson&Irwin,2014);媒介视角

13、关注员工如何利用技术促进团队沟通(Bechky,2003)。但这两种视角局限于人主体性的领导地位,而忽视了 AI 的主体性。为克服这一不足,Anthony 等(2023)通过整合分布式认知理论和行动者网络理论,提出了 AI员工协作的系统化分析视角(以下简称“系统化视角”)。该视角将 AI 视作与用户、组织等利益相关者具有等同性的行动主体,认为 AI、用户、组织共同推动了 AI 的设计、实施和使用。系统化视角下,AI员工协作是一个以高效完成任务为目标,由“AI人组织”构成的交互系统(Anthony et al.,2023)。据此,本文采用系统研究常用的 I-P-O 范式(Ilgen et al.

14、,2005),从系统的输入(Input)、过程(Process)和输出(Output)三个方面构建 AI员工协作系统的研究框架:输入层面,由 AI、员工、组织三方行动主体构成;过程层面,包含 AI员工协作的任务构型;输出层面,包含 AI、员工、组织受到的影响。在 AI员工协作的系统中,AI 是指人工智能技术驱动的,能够协助或与人类合作执行任务的软件和硬件的统称(Moussawi et al.,2020)。此类AI 区别于 AI 驱动的自动化系统和 AI 驱动的算法管理,它们通常在工作中扮演助手、同事的角色,与员工协作完成任务,因而也有研究将其称之为AI 助手(Jia et al.,2023)、

15、AI 同事(Savela et al.,2021)、AI 团队成员(Seeber et al.,2019)等,下文均以 AI 代称。本研究除了涉及常见的智能体 AI 外,还涉及嵌入型 AI 驱动的软件系统,这类 AI 虽然不具备智能体的实体或虚拟形态,但同样可以与员工进行协作。例如,为在线客服配备的 AI 助理(Jia et al.,2023),具备简单问答,收集客户信息、生成客户画像,对消费意向做出初步判断等功能。3 AI员工协作的系统性研究框架 系统化视角下,“AI人组织”共同构成了交互系统,它们围绕目标任务推动 AI 的设计、实施和使用(Anthony et al.,2023)。这意味着

16、,AI、员工和组织构成了 AI员工协作系统的输入端,它们之间相互独立,共同决定最终的输出结果;而任务特征是过程项,体现了输入如何转化成结果。据此,本文基于现有文献,从 AI 的技术特征因素、员工个体因素、组织情境因素和任务构型四个方面进行回顾。3.1 AI 的的技术特征 随着机器智能的日益强大,AI 与人之间出现相互渗透的趋势。在系统化视角下,AI 的主体性得到重视,AI 的技术特征成为协作系统的主要驱动因素之一(Anthony et al.,2023)。例如,Seeber 等(2020)在对 65 名科学家的采访中发现,建构 AI与员工的团队应首先关注机器的外观、可视性、可靠性等技术特征;Y

17、oon 和 Lee(2019)指出,要实现成功的人机交互,设计 AI 时应把握好用户友好、准确性、可靠性等十个技术特征。本文在对现有文献归纳总结的基础上,借鉴 Glikson 和Woolley(2020)中对 AI 特征的维度划分,从物理属性、心智属性和伦理属性三个维度刻画 AI 的技术特征。3.1.1 AI 的物理属性 AI的物理属性主要从有形性和拟人性两个角度进行刻画。有形性是指 AI 的虚拟或实体形态(Glikson&Woolley,2020),拟人性是指 AI 的外观、声音、表情、性别等物理特质的拟人化程度(Alabed et al.,2022)。关于 AI 有形性和拟人性的研究已较为

18、丰富,并得出了较为成熟的结论。研究发现,相比于虚拟形态的 AI,具有实体形态的 AI(如机器人 AI)更能获取人的信任和好感(Alabed et al.,2022;Glikson&Woolley,2020);相比于不具备类人型外观的工业型智能体,个体更容易对拟人化程度更高的智能体产生情感认同,更能容忍 AI 出现执行任务失败或技术故障,对于其社会价值和功能价值的评估水平也更高(Belanche et al.,2021;Yam et al.,2021;张仪,王永贵,2022)。而 AI 的女性性别、交互语音自然程度、类似于人的年龄、昵称等,都会被认为具有温暖、含蓄、微妙的人性尺度,减少 AI 作

19、为“人造物”的不自然痕迹,更容易被使用者接受(Borau et al.,2021;Guha et al.,2023)。尽管智能体适度的类人型可以激发人的移情作用,增加人机交互时的好感,但外型的过度人格化则会造成“恐怖谷”效应,造成使用者的心理不适(Glikson&Woolley,2020;Stein et al.,2020)。所谓“恐怖谷”效应,是指智能体的外观和行为跟人类越是接近,人们越容易产生积极情绪;但当正面情绪到达一个峰值之后,随着相似度的提高,第 1 期 尹 萌 等:与 AI“共舞”:系统化视角下的 AI员工协作 165 人们会对智能体产生恐怖的感觉(Mori,2012)。综上所述,

20、优化 AI员工的协作系统,要在工业设计上赋予 AI 适度的人格特征,如外观、表情、声音、性别等,有助于增强员工对 AI 的信任和好感,提升员工的接受度和使用意愿。3.1.2 AI 的心智属性 个体通常从情感和机能两个角度形成对其他实体心智水平的感知(Gray et al.,2007)。因此,AI的心智属性主要从情感性和机能性两个角度进行刻画。情感性是指 AI 进行沟通交流、情感感知、提供情感支持的能力。随着技术的进步,具备共情智能和多感官交互的 AI 开始能够准确识别、理解、应对甚至影响人类的情绪(Huang&Rust,2018;Lv et al.,2022)。研究发现,AI 与用户之间存在情

21、绪传染效应(Chuah&Yu,2021;Han et al.,2022),高情感性的 AI 能将积极情绪传递给用户,拉近AI 与用户间的心理距离,帮助 AI 与用户建立亲密、稳定的关系(Lee et al.,2022;Song et al.,2022),增强用户对 AI 的满意度(Gelbrich et al.,2021;Lee et al.,2022)。Dutta 等(2022)研究发现,AI 与员工之间的沟通交流营造了信任的氛围,增强了员工的工作投入。有趣的是,对于情感性低的 AI,虽然它们无法为员工提供情感支持,但正是由于其非人性化的特征,因而也会提升员工的适应性。例如,随着情感性低的

22、AI 引入工作团队,员工增强了对人类身份的认同感,缓解了对外部群体(如不同种族、宗教信仰、移民、性取向)的排斥,有助于减少群体间的偏见和紧张关系(Jackson et al.,2020);在人机互动过程中,由于低情感性的 AI不具备同理心、道德感和社会评判能力(Giroux et al.,2022;Lanz et al.,2023),人面对 AI 时不会感觉到尴尬、羞耻等负面情绪(Holthwer&van Doorn,2023;Pitardi et al.,2022);由于对 AI 缺乏人性化的感知,当员工面对 AI 扮演的咨询师时,会减少对评估者天然的抵触和厌恶情绪(Desideri et

23、al.,2019)。机能性是指 AI 理性地思考、计划和行动的能力(Yam et al.,2021)。高机能的 AI 有较强的问题诊断和解决能力、响应速度快、易用性高(Yoon&Lee,2019),能增强用户对 AI 的认同感和使用倾向(Belanche et al.,2021;Pantano&Scarpi,2022)。例如,Guha等(2023)研究发现,AI能够执行任务的数量和敏捷性的提高能增加用户对 AI 机能性的感知,进而导致用户的积极评价。Glikson 和Woolley(2020)指出,员工对 AI 的信任会随着交互的深入不断增强,但 AI 的机能性会调节信任的发展过程,高机能性的

24、 AI 通常会更快地发展高水平的信任。但高机能的 AI 对员工也存在负面影响。当与 AI 合作时,员工会与 AI 进行社会比较,高机能的 AI 会打击员工的自尊心,导致员工的自卑和工作不安全感,引发挫折、愤怒等消极情绪,甚至会导致工作场所不文明行为、反生产行为的发生(Seeber et al.,2020;Spatola&Normand,2020;王才 等,2019;Yam et al.,2023)。对于低机能的AI,由于容易出现技术故障或未按照程序设定的规则运行,会直接和间接导致用户的不满(Filieri et al.,2022)。例如,随着智能自主服务系统在服务行业的广泛应用,随之而来的是频

25、发的技术故障,以及由此导致的服务失败和顾客投诉(吕兴洋 等,2021)。当服务员工与智能系统协作时,不得不面对更多生气与失望的顾客,这加剧了员工的情绪劳动和心理资源耗竭,进而滋生对系统的抵触情绪(Groth et al.,2019;Johnson et al.,2020)。通过上述分析可见,AI 的情感性和机能性的影响并非单一或线性的,具备较强的情境性特征。在 AI员工协作的系统化分析视角下,AI 的设计和实施过程中要充分考虑用户和组织的特点。3.1.3 AI 的伦理属性 AI伦理属性主要从透明度和可靠性两个角度进行刻画。科技部在新一代人工智能伦理规范中明确指出,在 AI 的研发过程中,要在“

26、设计、实现、应用等环节,提升透明性、可靠性等”;马斯克等AI 领域的企业家和科学家呼吁在明确 AI 的伦理风险和治理机制前暂停大模型的开发和训练;意大利也宣布禁用 ChatGPT,原因是它侵犯了用户的隐私。可见,AI 的透明度和可靠性至关重要。透明度是技术的底层操作规则和内部逻辑对用户的可见程度(Glikson&Woolley,2020)。AI 的设计不是“完美”的,实际应用中难免出现故障和问题,高透明度的 AI 有助于政府和企业澄清和追溯是机器、设计师还是其他利益相关者的权利、责任和义务,建立可定义的监管标准,也有助于员工理解 AI 所做出的决策和建议,使人类能够对 AI进行“反哺”,通过监

27、督学习提升 AI 的智能水平(Seeber et al.,2020)。AI 的透明度还涉及安全和隐166 心 理 科 学 进 展 第 32 卷 私问题,许多 AI 的运行首先需要数据的输入,包括姓名、家庭关系、工作和家庭位置等私人信息,进而制定个性化的响应模式(Moussawi et al.,2020)。当封闭的 AI 系统威胁到员工的安全和隐私时,员工使用 AI 可能会面临法律、道德等伦理问题,员工会感到紧张、降低信任,由此会削弱对AI 的使用意愿(Pillai&Sivathanu,2020)。AI 的透明度还关系到对算法中偏见的控制。AI 的算法中可能存在设计师、工程师、公司的偏见,这种偏

28、见不仅会影响用户的信任和决策质量,还有可能在更高层面和更高风险的情境中导致不良后果(Anthony et al.,2023)。尽管有持反对意见的人认为 AI 是“黑箱”,实现 AI 对员工完全透明是不切实际的,但仍有一些较为复杂的方法可以帮助员工理解“黑箱”的内在机理(Charlwood&Guenole,2022)。例如,目前已发展出一些评估指标(如:sharp values;Sundararajan&Najmi,2020)增强了模型的可解释性。综上所述,优化 AI员工的协作,要从技术和制度设计两个角度增强 AI 的透明度,帮助员工不需要掌握专门知识或了解其内部结构,就能理解 AI 的功能和输

29、出结果。可靠性是指 AI 功能和行为表现的准确性、一致性和稳定性,以及能够真正落地使用(Glikson&Woolley,2020)。根据智能软件可靠性的研究进展与趋势,AI 的可靠性包含了数据可靠性、模型可靠性和平台可靠性三个维度。随着商业用途的 AI 系统复杂性提升,需要大量获取数据资源、商业机密、员工隐私等信息,因而工作场所AI的可靠性至关重要。员工是否会在工作中接受、使用和信任一个经常犯错和“反复无常”的 AI呢?答案显然是否定的。甚至,尽管 AI 和人类同事一样都会犯错,但我们对 AI 犯错的容忍度远远小于人类自己犯错。Esterwood 和 Robert(2023)研究发现,在 AI

30、员工协作中,当 AI 出错达到三次,员工对 AI 的信任通过任何策略都无法弥补。Robinette 等(2017)研究发现,在高风险的情境中参与者会对可靠性低的 AI 失去信任。在一些研究中还发现,AI 行为表现的一致性和稳定性的下降比准确性的下降更能影响员工的信任(Desai et al.,2013)。Wang 等(2022)研究发现,员工对 AI 能力的评估还取决于 AI 的可靠性,当 AI 可靠性低时员工倾向于认为 AI 也是能力低下的。因此,优化AI 与员工的协作,应重视 AI 的可靠性测试、评估及提升工作,为员工提供稳定安全可靠的 AI 系统。3.2 员工的个体因素 系统化视角下,A

31、I 尽管被视为理性的行动者,但仍无法抹去人类行动者的角色,系统根植于人机互动,归根结底需要人的参与,在多数“弱 AI”应用中人仍占据主导地位(Anthony et al.,2023)。因此,AI员工协作会受到员工个体特征的影响。根据对现有文献的梳理,本文从员工的态度、知识、技巧和能力(knowledge,skills,abilities,简称KSAs)、性格和人口统计学特征四个方面进行讨论。3.2.1 态度 当员工以变革创新的意愿和积极的态度去接纳和使用AI时,能与AI形成良好的协作关系,强化自身的认同感和幸福感,提升 AI 的组织有效性(Savela et al.,2021;赵宜萱 等,20

32、20)。有学者提出了 STARA(smart technology,artificial intelligence,robotics,algorithms)意识的概念,即员工对智能技术、人工智能、机器人、算法如何影响职业前景的看法(Brougham&Haar,2018),也有研究称之为 AI 意识(AI awareness)(Kong et al.,2021)。高STARA 意识意味着对技术较低的包容度和对职业前景更悲观的估计,会降低员工对 AI 的接受度,对员工与 AI 的协作关系以及员工自身造成负面影响(Li et al.,2019)。例如,Brougham 和 Haar(2018)研究发

33、现,STARA 意识会削弱员工的组织承诺和职业满意度,导致员工的离职倾向以及愤世嫉俗和抑郁情绪;Lingmont 和 Alexiou(2020)研究发现,STARA 意识会导致员工的不安全感;Kong 等(2021)研究发现,AI 意识会导致员工的工作倦怠。随着对 STARA 意识和 AI 意识研究的深入,最新的研究揭示了它们的“光明面”。以酒店业员工为样本的研究发现,对 STARA 意识和 AI 意识的挑战性评估可以激发员工的内部动机和工作投入,对于员工生产力和创造力的提升有促进作用(Ding,2021;Liang et al.,2022)。3.2.2 KSAs 工作场所 AI 的引入对员工

34、应具备的 KSAs 提出了新的要求,员工只有不断学习和完善顺应时代的 KSAs,才能促进员工对 AI 技术的适应和掌握。现有研究一方面关注与 AI 相关的 KSAs,如AI 使用经历、对 AI 的熟悉程度、对 AI 的敏感性、AI 专业素养等(Kim et al.,2022;Parker&Grote,2022)。Jaiswal 等(2021)通过案例研究发现,数智第 1 期 尹 萌 等:与 AI“共舞”:系统化视角下的 AI员工协作 167 化时代员工必备的五项技能,分别是数据分析、数字工具使用、复杂认知、决策制定和持续学习技能。Wilson 和 Daugherty(2018)指出,在与 AI

35、的合作中,员工需要掌握如何训练 AI 完成特定任务、如何对 AI 的工作进行解释说明、如何保证AI 的安全与可靠等能力。另一方面,关注一般意义上的个体能力和素质,如工作能力、职业生涯建构能力、沟通交流能力等(Basu et al.,2023;Guha et al.,2023;王才 等,2019)。Jia 等(2023)研究发现,只有具备高工作技能的员工才能在和 AI的协作中收益,提升创造力。Huang 和 Rust(2018)还认为,随着 AI 技术的发展和对人类工作领域的渗透,情感作为智能技术尚难以有效模仿和替代的人类能力,是人类与 AI 形成优势互补的关键。因此,管理者应将招聘重点从分析能

36、力转移到人际交往能力,员工和教育工作者也应该注重培养情绪智力与人际交往能力,学习如何与 AI 进行协作(Huang et al.,2019)。3.2.3 性格 员工天生多样化的个性特征被证明会影响AI与员工的交互(Kim et al.,2022;Parker&Grote,2022;王振源,姚明辉,2022)。例如,Oksanen 等(2020)研究发现,员工的大五人格中开放性强的个体显然更容易接受 AI 的应用。Tang,Koopman,McClean 等(2022)也关注了大五人格的作用,发现由于 AI 与员工之间的互补性,AI 能帮助责任心低的员工增强角色宽度自我效能、降低角色模糊,进而促

37、进工作绩效,但责任心、有序性高的员工却难以从与 AI 的协作中获益;Tang,Koopman,Yam 等(2022)揭示了核心自我评价的作用,研究发现对 AI 的过度依赖会损伤员工的自尊心,进而威胁其工作绩效,但核心自我评价高的员工能保持对工作的动力,减少对 AI 过度依赖的负面影响。3.2.4 人口统计学特征 年龄、性别、社会阶层、学历等人口统计学特征也会影响 AI 与员工的交互。年龄方面,Dutta等(2022)研究发现,年长的员工必然伴随着认知能力的下降,他们对新技术的熟悉和掌握程度较低,难以从与 AI 的协作中获益。但年轻员工精通技术知识,对新兴技术工具的使用意愿更强,更容易从与 AI

38、 的协作中获益(Guha et al.,2023)。类似的,社会阶层和学历水平较低的个体对于新技术的熟悉和掌握程度低、学习速度慢(Oksanen et al.,2020;王林辉 等,2022;张仪,王永贵,2022),这类员工同样难以适应与 AI 的协作。3.3 组织情境因素 系统化视角下,AI 与员工的互动嵌入在社会技术系统中,AI员工协作的演化和发展受到组织中 广 泛 的 利 益 相 关 者 的 影 响(Anthony et al.,2023)。Wilson 和 Daugherty(2018)指出,实现 AI与员工的协作,需要组织在 AI 应用的全生命周期的深度参与。据此,组织情境因素在

39、AI员工协作中扮演了重要角色,根据对现有文献的梳理,本文从组织准备、组织支持、组织氛围和文化三个方面进行讨论。3.3.1 组织准备 组织准备(organizational readiness)是指组织采用某项技术所需组织资源的准备程度和可用性(Hossain et al.,2017)。结合不同的技术类型,组织准备可以用来反映组织在特定技术上的准备程度。例如,van de Weerd 等(2016)在探究影响 SaaS采用的组织因素时,将组织准备定义为组织采用SaaS 所需组织资源的准备程度和可用性。因此,在 AI 使用的组织情境中,组织准备反映了组织采用AI所需资源的准备程度和可用性(Prik

40、shat et al.,2021)。组织准备包括技术成熟度、资金准备程度、技术专家准备程度以及高层管理者的支持等内容(Hossain et al.,2017)。对于组织准备高的组织,对AI 相关技术的应用较为成熟,有充足的资金引进和维护 AI 技术,有足够的专业技术人员对 AI 进行植入和维护,高层管理者也调配了充足的资金和人力资源(Prikshat et al.,2021)。在组织准备高的组织中,员工能更快速地评估、准备和集成 AI系统,对于 AI 有更强的心理适应性,更有动力利用 AI 提供的信息采取行动,组织也有更强的意愿和能力利用 AI 开发新的产品和服务(Makarius et al

41、.,2020)。3.3.2 组织支持 组织支持首先要求管理者对 AI 有一定的熟悉和了解程度,对 AI 技术持包容和接纳的态度,倾向于推动组织实现智能化转型(Basu et al.,2023)。反之,若管理者不信任 AI 技术对组织的帮助,对 AI 技术充满焦虑时,提供组织支持也无从谈起(Suseno et al.,2021)。具体的,管理者要表达对于引入 AI 技术的承诺和支持,给予员工信心(李燕萍,陶娜娜,2022;Prikshat et al.,2021;王振168 心 理 科 学 进 展 第 32 卷 源,姚明辉,2022),主动为员工提供数字技能、知识的教育与培训(Li et al.

42、,2019;Vrontis et al.,2022)。此外,由于雇主在社会和经济体系中的相对权力,技术往往更有利于雇主而非雇员,因而组织还应该考虑通过内部的政策和规定来帮助确保安全、健康和有意义的工作设计,例如围绕技术、不稳定工作、监视等的政策(Parker&Grote,2022)。组织还应着手建立和完善技术应用相关的安全保障和伦理规范(Kim,2022),并通过相关的法规对技术应用过程中利益相关者的责任和义务进行澄清(Seeber et al.,2020)。3.3.3 组织氛围和文化 根据技术接受和使用统一理论,个人对是否采取某项特定行为感受到的社会压力是影响个体采纳新技术的关键因素(Ven

43、katesh et al.,2003)。员工在组织中常常会关注同伴的想法,通过与群体保持一致增强归属感,特别当员工没有足够的信息做出理性的决策时,所在群体对其行为的影响更大。因此,用户对于 AI 的接纳和使用会受到社会规范和榜样模范的社会影响(Basu et al.,2023;Gursoy et al.,2019;李燕萍,陶娜娜,2022)。此外,组织对于员工使用 AI 的包容、支持、鼓励的氛围也有助于 AI 与员工的协作。研究发现,包容型组织氛围(裴嘉良 等,2021)、鼓励创新的组织文化(Malik et al.,2020)、包容失败和支持进步的组织文化(Webber et al.,201

44、9)、竞争性的心理氛围(Li et al.,2019)会促进员工对 AI 的接受和使用,因而有助于改善 AI员工协作。3.4 任务构型 系统的组件及其功能服务于执行特定的任务,AI、员工和组织围绕工作任务进行运转,它们通过执行任务影响输出结果(Anthony et al.,2023)。过程环节描述了系统的输入如何转换成结果(Ilgen et al.,2005),具体内容就包括明确目标和相互协调(Marks et al.,2001),因而任务构型是AI员工协作系统中的过程项。任务构型包含“干什么”(任务目标)和“怎么干”(交互方式)两个维度,任务目标刻画了协作从事任务的性质,交互方式则刻画了 A

45、I 与员工在任务中的角色定位、任务量和资源的分配情况(Kim,2022;Seeber et al.,2020)。优化 AI员工协作,需要考虑双方的交互方式与任务目标,只有技术与任务的高度匹配才能最大化协作效能(Lee,2018;Wang et al.,2020;赵宜萱 等,2020)。3.4.1 交互方式 Makarius 等(2020)根据 AI 在工作中应用的范围以及 AI 的新颖性、智能性水平,发展出了 8 种交互方式,分别是仿真(如:超级人工智能)、自治(如:自动驾驶汽车)、增强(如:手术机器人)、共生(如:深度学习)、自动化(如:流水线机器人)、放大(如:预测 AI)。此外,还有研究

46、根据交互双方的身份(人或 AI)的不同构建了交互方式矩阵,例如:Robinson 等(2020)根据员工与顾客是人或 AI构建了四种交互方式,分别为人内关系、AI 员工与人类顾客的种间关系、AI 顾客与人类员工的种间关系、AI 内关系。现有研究讨论较多的是自动化与增强两种交互方式(Raisch&Krakowski,2021)。自动化意味着机器接管人工任务,优点在于员工只需很少甚至不需要任何参与就可以将任务交付给 AI 来完成,通过将人类从系统中抽离以实现更全面、合理和高效的任务处理(Davenport&Kirby,2016)。但这同时也带来诸多负面影响,对自动化的依赖会造成员工的去技能化、管理

47、者去中介化,威胁员工和管理者长远的成长发展与价值实现,并可能造成严重的失业和社会不平等问题(Raisch&Krakowski,2021)。而增强的应用方式则意味着人与 AI 之间持续的紧密交互,用人类的独特能力(如情感、直觉)来作为 AI 的补充(Wilson&Daugherty,2018)。增强的应用方式旨在增强员工的工作能力、改善组织结构、加强沟通和表达,意味着员工通过使用 AI 来深化工作的深度和广度(Hunter,2019)。但增强模式需要人的持续参与和试验,受到人的情绪和其他主观因素的影响,技术成果无法复制,单一的增强模式则意味着人类的偏见持续存在,技术成果难以实现稳定、可靠和持久(

48、Amershi et al.,2014)。3.4.2 任务目标 尽管 AI 可以显著提升员工的劳动生产率,但组织在引入 AI 的同时需要考虑适配的任务目标,否则会适得其反。现有研究根据任务中情感社会成分和认知分析成分的差异将任务区分为认知分析型任务和情感社会型任务(Glikson&Woolley,2020;Lee,2018;Wirtz et al.,2018)。情感社会型任务对于情绪智力、情感沟通能力、人际交往能力、组织协调能力有较高的要求,需要消耗大量的情第 1 期 尹 萌 等:与 AI“共舞”:系统化视角下的 AI员工协作 169 绪资源;认知分析型任务对于处理复杂信息的能力、数据分析计算

49、能力有较高的要求,需要消耗大量的认知资源(Huang et al.,2018;Huang&Rust,2018;Wirtz et al.,2018)。根据 Glikson 和 Woolley(2020)总结,相比于情感社会型任务,员工对于从事认知分析型任务的 AI 更为信任,类似的Lee(2018)也在研究中发现,相比于人工任务,员工对于从事分析计算任务的 AI 更为信任。对于情感社会型任务,如具有复杂情感和社会属性的服务工作,AI 只能以较高的水平模拟情绪的表面扮演,员工的深层扮演、创新思维和具有社会复杂性的真实情感却难以被 AI 轻易模仿和替代(Wirtz et al.,2018)。王林辉等

50、(2022)应用机器学习模型测算了 AI 的职业可替代率,发现非程式化且对思维能力和社交能力要求高的任务,难以被 AI 所取代。例如,在服务失败情境下或是情绪激烈的服务工作中(医学测试、丧葬服务、婚礼策划),需要一线服务员工对遭遇失望、侮辱、冒犯的客户表示尊重、同情或其它特定情绪,AI难以满足客户的同理心需求(Delcourt et al.,2017;Rafaeli et al.,2017)。而 AI 通常被认为情感表达虚假、做作,实际服务效果并不理想(Robinson et al.,2020)。一些具有关系动机的客户更看重服务中的社交元素,更希望体验员工的情感表达,通过非语言线索来消除服务中

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
百度文库年卡

猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服