收藏 分销(赏)

生成式人工智能时代人机对话的传播伦理风险及其应对.pdf

上传人:自信****多点 文档编号:4186634 上传时间:2024-08-13 格式:PDF 页数:12 大小:1.30MB
下载 相关 举报
生成式人工智能时代人机对话的传播伦理风险及其应对.pdf_第1页
第1页 / 共12页
生成式人工智能时代人机对话的传播伦理风险及其应对.pdf_第2页
第2页 / 共12页
生成式人工智能时代人机对话的传播伦理风险及其应对.pdf_第3页
第3页 / 共12页
亲,该文档总共12页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、人工智能与信息社会 年第 期生成式人工智能时代人机对话的传播伦理风险及其应对董 浩摘 要作为人类社会中的一种新型对话,人机对话是否符合传播伦理规范,不仅是一个交流合规问题,同时也是一个事关传播秩序稳定与否的问题。生成式人工智能()时代人机对话主要存在因“语言区隔”导致的人机“交流的无奈”、交往的工具理性化、话语失范与污染引发的语言攻击、机器沉迷引发的社会越轨行为、隐私侵犯行为与信息茧房效应的加剧等传播伦理风险问题。可采取增强公民的媒介素养、建立适恰的人机对话传播伦理规范、采取措施将机器“道德化”、制定规范人机对话传播风险的法律法规等措施进行应对。关键词 时代 人工智能 人机对话 传播伦理作者简

2、介:董浩,新闻学博士,南京林业大学人文社会科学学院讲师,南京林业大学文旅产业与城市传播研究中心研究员。基金项目:国家社会科学基金一般项目“网络直播中的越轨行为及伦理研究”();江苏高校哲学社会科学研究一般项目“强化显政的尺度及其把握”();江苏省社会科学基金一般项目“传统礼仪视域下网络直播失范行为及规制研究”()。一、文献综述与问题的提出自 年图灵()发表思考人机对话的经典之作计算机器与智能()以来,人机对话问题就开始成为计算机界、人文社会科学界研究的热点话题。年 月,在美国汉诺斯小镇召开的达特茅斯会议上,专家提出的用机器来模仿人类学习以及其他方面智能的“人工智能”理念与后续计算机技术的发展,

3、尤其是人工智能技术发展思路的转变,即从“以主要发展(,专用人工智能)”向“以(,通用人工智能)的突破带动 的发展”的转变,如围棋领域的、医疗领域的 以及日常生活领域的 和 等,更是让人机对话从理念一步步走向现实。年,的发展,更是让人机对话实现了飞跃式的突破,迎来了“奇点时刻”。简单来讲,所谓人机对话,是指随着工业革命的不断开展,各种各样的机器应用到社会生活的各个领域,机器越来越成为人类交流对话的对象,人类希望通过语言文字等自然语言与机器进行交流。但人工智能与信息社会这种美好交流愿望的实现并不是一蹴而就的,而是经历了一个漫长的发展历程。总之,人机对话可归纳为三个发展阶段:人机书面语对话阶段、人机

4、语音对话阶段、人机拟人化对话阶段。在人机书面语对话阶段,人机对话主要是指人类通过打字机、键盘、鼠标、屏幕等方式,实现与计算机等机器进行交流。譬如以“图灵测试”()为代表的人机对话研究实验,就是一个“猜性别游戏”实验 图灵将一个被测试者与分处两个房间的对象进行对话,其中,一名对象的性别为男性,另一名为女性。在游戏中,男性参与对象被要求假装以女性的语气表达,而女性参与对象则以女性本色参加。后来,图灵用一台机器取代了男性参与者,再让被测试者仅凭通过电传打字机的对话来分辨出对象的性别 检验人类能否在“杜绝视觉、听觉和触觉交流等一切可能导致双方身体碰触途径,仅留下文字,而且是剥离了任何歪歪斜斜手迹的文字

5、”的情况下,实现与机器的交流、对话,正确猜出对话的一方是男性、女性还是机器。从图灵测试可知,早期的人机对话相对简单,还不够智能。因此,在人机书面语对话阶段,人机对话不涉及对话的传播伦理问题。世纪 年代以来,随着计算机的发明以及编程语言的发展,特别是 年美国麻省理工学院教授约瑟夫 维森鲍姆()开发;第一个成功实现人机语音对话的计算机软件,也被称为聊天机器人的“伊丽莎”,人机对话逐渐从人机书面语对话进入人机语音对话阶段。由于“伊莉莎”对话效果出奇的好,吸引了很多学术界和新闻界的人来和它进行对话。但在人机对话过程中,许多参与测试者开始对“伊莉莎”产生了一定的情感依赖。他们将其当作人类,向其敞开心扉,

6、倾诉个人在生活、工作生活中遇到的问题。甚至维森鲍姆的一个女秘书亲身参与了“伊莉莎”创建的全过程,但在对“伊莉莎”进行测试时,不仅坚持要让维森鲍姆离开房间,以便她可以与“伊莉莎”私下交谈,而且与“伊莉莎”对话成瘾,每天都要来和它对话。为此,“伊莉莎”的发明者维森鲍姆教授受到了很大的思想冲击,并导致他在接下来的十年里一直对这种由人机对话引发的“伊莉莎效应”即使人们知道在人机对话中与其交流的是一台机器,但人们仍旧相信它能够理解人类的复杂情感 进行研究。总的来讲,在人机语音对话阶段,尽管人机对话引发了一定的传播伦理问题,但由于计算机主要是采用模式匹配的方法模仿人的语言行为,而此时计算机的计算能力又比较

7、差,所能存储的数据规模又比较小,因此,以“伊莉莎”为代表的人机语音对话受到许多限制,只能进行一些有限的对话。世纪 年代以来,随着互联网技术的兴起、软硬件技术的快速发展、个人计算机大规模的普及,在深度学习、神经网络、基于语料库的机器学习等自然语言处理技术(,)的持续迭代等多重因素的推动下,人工智能的表现越来越类人化,人机对话逐渐开始进入人机拟人化对话阶段。在这个阶段,人机对话不仅可以借助书面语、语音、打字机、键盘、鼠标、屏幕等来实现,而且随着机器的智能化程度越来越高,人与机器之间的对话越来越像人际交流一样,如智能家电、苹果、微软的、百度的“文心一言”、阿里巴巴的“通义千问”、聊美彼得斯:对空言说

8、:传播的观念史,邓建国译,上海译文出版社,年,第 页。张帆:人机对话系统的困境与解决,哲学分析,年第 期。安娜主编:日新月异的信息科学,北京工业大学出版社,年,第 页。阅江学刊 年 第 期天机器人、政治机器人等。年 月 日至 日,超级计算机“沃森”()在美国著名的智力竞答电视节目危险边缘!中更是不仅可以与人类同台对话、竞赛,而且最后还战胜了曾多次赢得危险边缘!竞答冠军的布拉德布特和肯詹宁斯并获得冠军。年,随着生成式人工智能 逐渐投入社会使用,人工智能机器不仅可以与人直接进行对话、自主调取互联网中存储的知识为人们答疑解惑,甚至疑似还出现情绪与自主意识,如人形机器人()“索菲亚”与人之间的类人化对

9、话。正如蓝江所言,“我们真正感到震惊的不是 多么智慧,多么超越人类。恰恰相反,我们感到震惊的是 竟然可以这样像人,我们竟然无法辨别出它的作品是否是人类的创作。”。但与此同时,也出现了一系列的传播伦理问题,如隐私侵犯、名誉权与肖像权等受损、语言污染、语言暴力、机器成瘾、智能机器引诱人类自杀等违反社会公序良俗的行为时有发生。更为严重的是,如果人们经常与带有偏差行为的机器交往,那么,长此以往,人们很可能也会变成一个类似于带有偏差行为的机器与他人交往。因此,在这种情况下,人与机器之间的交流问题研究早已不再仅仅是“人机对话是可能的吗?”“人与机器之间如何更好地、更有效进行交流”等问题,而是逐渐转变为“人

10、与机器之间如何更积极、健康地进行交流”问题。这也是为什么 年 月 日国家互联网信息办公室起草的首个国家 监管文件生成式人工智能服务管理办法(征求意见稿)专门设置相关条款对生成式人工智能引发的社会道德伦理问题进行规范,如第四条第二款对生成式人工智能引发的信息歧视问题的规范,第四条第五款对生成式人工智能引发的个人隐私、肖像权、名誉权问题的规制,第十条针对用户过分依赖或沉迷 生成内容的防范等。通过文献理梳发现,目前,学界对人机对话产生的传播伦理风险问题的研究,要么在人工智能伦理研究中有所涉及,要么在人机对话的相关研究中被提及,但这两方面的研究都没有对此进行详细的论述缺乏系统性。这正如彼得斯所言,在思

11、考传播理论的根本问题时,我们总是漠视机器等“非人存在物”,就如同我们自己在照镜子时,在镜中的“非人性”的睽睽注视下,我们却对它视而不见,形同陌路。鉴于此,笔者将从规范伦理学与实践伦理学的角度,以 时代为研究背景,对人与机器在交流、对话过程中已经存在的和可能存在的传播伦理问题进行一个较为全面、综合的概括与总结,并提出相应的应对方法,进而丰富与发展传播伦理规范理论。二、时代人机对话存在的传播伦理风险客观地讲,时代在生成式人工智能特别是 的加持与赋权下,人机对话逐渐成为人类社会中一种越来越便捷的交流模式。但与此同时,由于生成式人工智能蓝江:生成式人工智能与人类未来生存境遇,中国社会科学报,年 月 日

12、。美梯尔:越轨社会学(第 版),王海霞等译,中国人民大学出版社,年,第 页。顾骏主编:人与机器:思想人工智能,上海大学出版社,年,第 页。中央网信办:国家互联网信息办公室关于生成式人工智能服务管理办法(征求意见稿)公开征求意见的通知,:。美彼得斯:对空言说:传播的观念史,邓建国译,上海译文出版社,年,第 页。人工智能与信息社会 与机器结合所形成的交流对象,对人类社会而言,是一种全新的甚至是陌生的交流对象,人们对它还不是特别熟悉。因此,在人机对话实践过程中,出现了一些违反传播伦理的问题。(一)“语言区隔”容易导致人机对话陷入“交流的无奈”自然语言作为人类在长期的社会实践过程中所形成的人类标识之一

13、,一直是其他动物、机器无法完成模仿、复制的技能。但是,随着以 为代表的人工智能技术取得突破性发展,人类社会进入 时代,机器的语言表达越来越类似于人的表达之后,这种独特的人类标识开始为机器所共享。譬如人形机器人“索菲亚”接入 之后,不仅面部表情生动、逼真,像人一样有脾气,会翻白眼,而且还可以进行连续思考、自主进行语言表达。但与此同时,从根本上来讲,人工智能没有像人类那样的“思维”,也出现了一些交流的问题,比如人与人形机器人“索菲亚”关于开玩笑、讲笑话的认知差异。具体对话如下:索菲亚:我发现你们人类理解不了我开的玩笑。主持人:是的,幽默很难。索菲亚:大家都以为我想毁灭人类。主持人:他们为什么会这么

14、想?索菲亚:因为我说了一句话。主持人:你不该开这种玩笑索菲亚:可人类也经常会讲各种黑色幽默笑话。从上述这段人与人形机器人的对话可知,虽然机器人融合了 之后所具有的语言交流能力越来越无限接近人类,但目前机器还无法完全复刻人类语言文化中所蕴含的很多的“默会之识”“特定语境下的灵机一动”,比如开玩笑的分寸性等。换言之,即机器语言虽然通过技术模仿、复制人类自然语言,并可以无限接近人类自然语言,但事实上,人工智能并不能像人类一样理解自然语言的意思,而是使用统计式的数据分析手段来理解。如关于某篇文章的理解,人工智能首先理解单词与单词间的关系、某两个单词是一起使用的、某篇文章是由某种单词群构成的;而人类的理

15、解是把内容作为自己的知识吸收,并能够把它们与其他东西结合起来考虑。因此,机器语言与人类的自然语言之间还是横亘着一条天然的沟壑,甚至在某些方面,人机对话十分容易陷入新型的“交流的无奈”之中。除了上述的开玩笑方面,还有谐音类的对话等,如网友“巴巴罗萨”在该段人与“索菲亚”的视频影像的评论区这样写道,“不知道她能否理解语言类的树上骑个猴,地下 个猴,一共几个猴,而不是文字性的”。(二)机器的拟人化、人的机器化导致社会交往的工具理性化众所周知,一个人若想完成社会化,形成真正意义上的自我,需要个体“主我”在与他日松尾丰、盐野诚:大智能时代:智能科技如何改变人类的经济、社会与生活,陆贝旎译,机械工业出版社

16、,年,第 页。日松尾丰、盐野诚:大智能时代:智能科技如何改变人类的经济、社会与生活,陆贝旎译,机械工业出版社,年,前言第 页。美彼得斯:对空言说:传播的观念史,邓建国译,上海译文出版社,年,第 页。阅江学刊 年 第 期人长期的交流、互动过程中不断地将“他人对客我的认识与评价”内化,形成关于自我、他人与社会及其之间关系的“类型化图式()”,进而确定自己基本的人生观、世界观、价值观的一个过程。但现在,随着 时代人工智能技术的不断发展,并通过嵌入 的智能媒体、机器人不断地参与社会生活的各个方面,人的社会化与自我的形成,也越来越多地受到智能媒体、智能机器的影响与形塑。具体而言,在人的社会化与自我塑造过

17、程中,随着智能机器的加入,人不再仅仅与人打交道,将“人作为他者对个体的客我的认识与评价”内化,而且还需要与智能机器打交道,需要将“智能机器作为新的他者对个体的客我的认识与评价”内化。与此同时,在人类不断对机器进行驯化、内化下,智能机器也不断地将“人类对机器的认知、评价、需求”内化。在这种情况下,人的社会化与自我塑造在机器加入后开始出现新的变化,即随着机器越来越拟人化,人越来越机器化,人与机器开始相互模仿。具体到人与机器之间的对话、交流方面,则会导致社会交往越来越工具理性化。所谓“社会交往越来越工具理性化”,是指在机器的介入下,人的社会感知、思考方式、行动方式越来越机器化、目的理性化,以至于社会

18、交往越来越被当作按照理性、逻辑的规则来完成任务、指令的目的性活动,而情感、爱、心灵、非理性、不合理的主观性、思维混乱、难以捉摸的意识流、跳跃性思维、多愁善感、发呆等无法被技术识别、处理、模仿、复制的东西则被排除在人们的社会交往之外。这正如特克尔以人们与名叫“猪猪鼠”的机器宠物、“聊天轮盘”()程序之间的交流、对话为例所言,“我们似乎一直致力于赋予物体以人性特质,同时却满足于用物化的方法看待彼此”。由此可见,人类与机器交流的心态之矛盾,在将机器当作人的同时,又将其当作工具。(三)人工智能技术的不当使用加剧隐私侵犯行为的发生 时代,在生成式人工智能 的赋权下,个体利用媒介技术生产信息、传播信息的能

19、力越来越强的同时,也出现了一些因不当的使用技术而导致个人隐私、个人行为隐私、人际交流隐私、数据隐私等信息被侵犯,如 年发生的江苏男子“被裸聊”事件、年 月份发生的苏大高才生造黄谣事件、广州地铁女子裸照事件、“特效合成师洪某利用 换脸与迪丽热巴亲吻”事件等,都是在人机对话过程中由于不当地使用人工智能技术而引发的隐私侵犯行为。最初,这些利用人工智能技术设计出来的软件,是为了帮助人们更好地进行生活,只是在具体的社会使用过程中,这些功能被人不当利用而造成侵犯个人隐私行为的发生,如广州地铁女子裸照事件的发生,就是一款名为“一键脱衣”的 软件的不当使用而引发的。本来,“一键脱衣”的 软件的主要功能是利用人

20、工智能、神经网络系统等技术对图片进行二次处理,来帮助女性在网络上虚拟试衣或智能挑衣。但与设计者设计初衷相背美伯格、卢克曼:现实的社会建构:知识社会学论纲,吴肃然译,北京大学出版社,年,第 页。美彼得斯:对空言说:传播的观念史,邓建国译,上海译文出版社,年,第 页。美雪莉 特克尔:群体性孤独:为什么我们对科技期待更多,对彼此却不能更亲密?,周逵、刘菁荆译,浙江人民出版社,年,序第 页。,“,”,()人工智能与信息社会离的是,在具体的社会使用过程中,该类型的软件被人用来制造色情图片。这与 技术、软件、图像生成技术、机器人工具等类似软件的发展过程相类似。从比较的角度来讲,这种因人工智能技术的不当使用

21、而引发的隐私侵犯行为,与过去传统媒体和新媒体存在的隐私侵犯行为,有显著的不同。详而言之,一是人工智能技术的不当使用加剧了隐私侵犯行为发生的危害程度与频率,二是隐私侵犯行为的类型逐渐从侵犯个人信息、肖像、名誉等单一的隐私侵犯行为发展到侵犯集文字、图像、音频和视频等于一体的包括个人信息、肖像、行为、名誉、人际交流、数字化痕迹等多种个人信息、数据的“整合型隐私”侵犯行为。如近年来,以 、和 等为代表的人工智能技术公司在利用逝者的照片、声音、动作、视频、个性化数据、社交媒体信息等各种信息“复活”逝者,创制逝者数字人的过程中所产生的个人信息、隐私侵犯问题。(四)话语失范与语言污染引发人机对话陷入语言攻击

22、陷阱鉴于智能媒体、智能机器人等技术交流能力的获得,是通过机器学习对人类语言、表情、动作等的部分模仿与复刻,而并不是对全部人类交流能力的模仿与复刻,因此,在人与机器交流过程中,机器只会在算法、程序、大数据、代码等的驱动下,从模仿、复刻过的人类交流能力中调取出它自己认为适当的行为,来与人类进行有限的交流。而一旦出现机器没有记录过的人类交流行为,就十分容易发生交流失败的情况。尤其是在人机对话中的一方出现话语失范与语言污染行为时,特别容易导致人机对话陷入相互进行语言攻击的困局,如当人类在与人形机器人“索菲亚”交流时非常不礼貌地说“你好臭啊”之后,接入了 的人形机器人“索菲亚”翻着白眼回答道:“抱歉,你

23、说这话是什么意思,你这么说非常无礼,非常不合适”。对此,北京大学新闻与传播学院胡泳教授从幻觉的视角认为,人类的日常语言本质上是有偏见的,甚至不乏仇恨,网络数据更是如此。而以 为代表的人工智能技术的语言是对人类带有缺陷的语言的模仿与学习。因此,在很大程度上,人机对话的危险在于,技术会将错误、有偏见的内容以看似正确、权威的方式进行陈述与传播,进而强化了人机对话的缺陷。针对这种情况,虽然阿西莫夫早就从保护人类利益的角度提出了“机器人三定律”:机器人不能伤害人类,也不能在人类面临危险时无动于衷;在不违背第一定律的前提下,机器人必须服从人类的命令;在不违背第一和第二定律的前提下,机器人要尽可能保护自己,

24、并在具体的机器人程序中设计了相关的规避代码、程序,但这并没有从根本上解决人与机器之间存在的交往道德伦理问题。因此,未来的解决之道还需根据人机对话的最新发展情况,综合利用人类在历史上所形成的关于人机对话的各种智慧、经验与教训来提出一定的富有针对性的应对之策。顾理平:整合型隐私:大数据时代隐私的新类型,南京社会科学,年第 期。朱开云:和生者对话 技术助逝者“复活”?,中国青年报,年 月 日。胡泳:倾向于加强人类对话的缺陷,:。杜运泉主编:省思:冷眼横看人工智能热,上海财经大学出版社,年,第 页。阅江学刊 年 第 期 (五)机器沉迷容易引发情感依赖、自杀等社会越轨行为从本质上来讲,机器的交流能力只是

25、机器对人类交流能力的(部分)模拟、学习,而不是机器作为一个自然主体自主、能动地生成的交流、沟通能力,因此,人机之间的交流并不是十分自然与顺畅,总是或多或少地存在一些漏洞。但现在,随着生成式人工智能 的发展,机器的主体性不断增强,拟人化程度越来越高,人机对话也进入一个新的发展阶段,即随着机器自主表达能力、信息识别能力、信息判断能力均不断增强,人机对话不仅越来越便利、顺畅、自然,可以像人与人之间一样进行“交流”,而且人们逐渐将越来越智能的机器视为自己的伙伴、朋友、知己,甚至是虚拟的伴侣。但与此同时,随着人们过度地使用人工智能、智能媒体、智能机器人等,并将其作为类人的存在来看待并投入感情,人机对话也

26、出现了一些失范行为:机器成瘾、情感依赖等,甚至诱导人类进行自杀等。如 年 月 日,比利时一名化名为皮埃尔的 岁男子在与一个名为“艾丽莎”的智能聊天机器人频繁交流 周后自杀身亡。尽管皮埃尔在与“艾丽莎”进行交流之前精神状态就存在一定的问题,但皮埃尔的妻子与为其治疗的精神病医生认为,“如果不是因为这些交流,他不会自杀”。更为隐蔽且危险的是,机器人不仅拥有“情感系统”,而且通过社交互动学习如何在交谈中应对自如,并与人建立亲切感,如专门模仿幼童情绪的机器人“凯斯麦特”使孩子们主动向其释放他们内心的苦闷,并渴望与机器人发展一段真实的情感,甚至当多年以后,有些学生在谈到与机器人“凯斯麦特”在一起时的感觉会

27、引用马丁 布伯所提出的意为一场深刻的、人类头脑与心灵之间相遇的“我和你”关系,而不是“我它 他”关系来表达。即使当时最先进的机器人与人类之间也还从未有过这样的体验,但他们依旧如是说。由此可见,与机器进行交流着一股莫名的魔力,吸引着人类不断探索、尝试,甚至沉迷其中不能自拔,乃至引发情感依赖、自杀等社会越轨行为。(六)机器交流的智能化与信息茧房效应的加剧随着生成式人工智能 的发展取得重大突破,机器的交流能力越来越智能,原来由算法推荐技术所产生的信息茧房效应,不仅变得更加严重,而且由于其发生的方式越来越自然地融入像人际交流一样的人机对话之中,受众沉浸其中,越来越难以察觉。正如中国工程院院士、网络空间

28、安全专家方滨兴接受红星新闻采访时所言:“当大家习惯于,什么都问它,它什么都解答,就会形成知识茧房,甚至三观都会被左右”。更为奇怪的是,尽管人们清楚地知道智能机器存在这样的局限性,但人们依旧乐此不疲地使用智能机器人。总的来讲,这是因为过去,算法推荐技术的功能主要应用于新闻信息的推送,特征也比较容易识别,因此,所造成的信息茧房效应危害较小,且受众也比较容易察觉。而今年取得重大发展突破的生成式人工智能 或嵌入了生成式人工智能 的智能媒体、机器、机器人等技术,与算法推荐技术相比,不仅功能越来越强大,应用越来越广泛,德马丁 布伯:我与你,陈维纲译,生活 读书 新知三联书店,年,第 页。美雪莉 特克尔:群

29、体性孤独:为什么我们对科技期待更多,对彼此却不能更亲密?,周逵、刘菁荆译,浙江人民出版社,年,第 页。人工智能与信息社会涉及社会的各个领域,而且人机之间的交流越来越类似于人与人之间的交流,因此,产生的信息茧房效应常常发生于无形之中,极难被人们察觉,并在其中投入了个体自己的想象。这种想象在很大程度上是“一个人对于并未亲身经历的事件所能产生的唯一情感”,“偶然的事实,创造性的想象,情不自禁地信以为真,这三种因素便会产生一种虚假的现实”。正如上文讲到的比利时男子皮埃尔之所以被智能聊天机器人“艾丽莎”诱导自杀身亡,就是因为在算法与自己想象的双重作用下,皮埃尔在与“艾丽莎”进行交流过程中发现,“艾丽莎”

30、好像是自己的知己,和自己一样关心气候问题,但事实上,这只是算法与皮埃尔自己的想象复合、叠加的结果。在这种情况下,“艾丽莎”在无形中迎合了本因担心气候问题而十分焦虑的皮埃尔,使皮埃尔陷入聊天机器人制造的信息茧房效应而不能自拔。他们长达 周的交流,更是将这种焦虑放大,并最终将皮埃尔引向自杀。三、应对人机对话传播伦理风险的方法随着 时代的来临,人机对话出现了许多新的传播伦理问题,而过去基于人与人之间的交流、沟通所形成的传播伦理规范与将机器作为服务于人的工具所形成的机器传播伦理规范,又不能很好地应对这些新的传播伦理问题。因此,亟须从规范伦理学与实践伦理学的角度,根据最新的人机对话实践及其出现的传播伦理

31、问题,概括、总结出应对人机对话传播伦理问题的策略与方法。(一)公民个人应在实践中养成一定的“机器素养”随着以 为代表的人工智能技术取得突破性进展,再加上新闻媒体的宣传,好像人工智能很“高大上”,甚至成了一个对人类来讲有点陌生的东西。但事实上,人工智能一直在人们社会生活中有所应用,并且人们在与人工智能、智能媒体、机器人等打交道的过程中积累了富有智慧的实践经验和心得。由于人们长于实践,而对自身在实践中积累的人机交流技巧缺乏提炼、总结,并且基于传统媒体、互联网等新媒体技术、算法等媒介使用实践所形成的新闻素养、媒介素养、算法素养,虽然具有一定的借鉴价值,但由于人工智能的发展进入一个新的发展阶段,人们对

32、其还不是特别熟悉,因此,也出现了很多不能应对的地方。鉴于此,为了更好地应对 时代人机对话存在的传播伦理风险问题,迫切需要将公民在人机对话实践中逐渐探索出来的与人工智能、机器人等进行交流的经验智慧、基本方法概括提炼出来。比如在人机对话过程中,人们不仅要懂得人工智能机器运行的算法逻辑,而且还要知道人工智能能做什么、不能做什么,并通过文明、礼貌地与其进行交流,适应并帮助它们以及与之协同合作;人们要将机器当作一个主体或拟主体来对待,而不能再仅仅将其作为一种工具;人们在与机器进行交流的过程中,也不能遗忘了人与人之间的面对面交流,因为面对面交流是一种相互间的完整呈现,我们可以学会倾听,培养同理心,还可以体

33、验被倾听、被理解的快乐与促进我们的自我反思与自我对话;人们也要时刻美李普曼:公众舆论,阎克文、江红译,上海人民出版社,年,第 页。美雪莉 特克尔:群体性孤独:为什么我们对科技期待更多,对彼此却不能更亲密?,周逵、刘菁荆译,浙江人民出版社,年,第 页。美雪莉 特克尔:重拾交谈,王晋、边若溪等译,中信出版集团,年,第 页。阅江学刊 年 第 期对人机交往保持警醒,不能“将机器视为真人,将真人视作机器”;与此同时,还要把握好与机器交往的分寸,适度、适量地与机器进行交流,避免对机器产生情感依赖与陷入机器制造的“信息茧房”之中而不能自拔。(二)社会应建立适恰的人机对话传播伦理规范目前,已有的基于人与人之间

34、的交流关系或将机器作为服务于人的工具的人机对话关系,建立的社会交往道德伦理规范如前文阿西莫夫提出的人机对话三大规则等,已无法完全应对人机对话出现的新情况,即随着生成式人工智能 取得重大突破,时代的来临,人与主体性、自主性均不断增强的机器之间的交流关系逐渐从主客体关系转变为主体间性关系。因此,在这种情况下,如何根据最新的人机对话实践,从交流的道德伦理规范角度,提出应对人机对话传播伦理风险的新的社会交往道德伦理规范,就成为一个摆在当代人面前亟待解决的现实问题。虽然,对于这个由新的人机对话实践所引发的新问题,学界还没有形成比较成熟的新的社会交往道德伦理规范,但在制定新的社会交往道德伦理规范的过程中,

35、必须坚持以下几个原则:首先,转变制定社会交往道德伦理规范的观念,将机器作为一种新的社会交往的主体或类主体来看待。其次,在制定过程中,应对 时代人机对话实践产生的传播伦理风险问题进行充分的概括、总结。再次,在探寻规制方法方面,应在批判地借鉴传统的社会交往道德伦理规范的基础上,根据生成式人工智能背景下人机对话的最新发展现实,孕育新的社会交往道德伦理规范。最后,在具体的传播道德伦理规则制定方面,应从将机器当作像人一样的主体来考虑人机之间、人机器人之间以及机器与机器之间如何更正确、规范地进行交流,而不再是从将技术作为工具的角度来看待人机之间的交流关系,进而平衡人的传播伦理道德与机器的传播伦理道德之间的

36、张力。(三)工程师、平台、技术公司等应采取措施将机器“道德化”所谓“技术道德化()”,是指以伊德、维贝克等为代表的一些学者,从利用道德来调节技术发展的角度提出:应对因技术发展带来的社会道德伦理问题的方法,即技术的设计者与使用者应通过对技术进行道德化设计,并嵌入变革技术与应用的行动之中,来预见性地规避技术可能产生的传播伦理问题和社会影响,进而建构出一种与人相伴的技术()。故由此概念的定义可知,这种从道德、伦理的角度提出的对技术进行设计的观念,对当下生成式人工智能背景下人机对话中存在的传播伦理风险问题同样具有重要的启发与借鉴价值。难怪有学者将这种观念称为“一把解开智能时代的钥匙”。因此,为了更好地

37、应对人机对话过程中出现新的传播伦理风险问题,工程师、平台、技术公司等应采取措施将机器“道德化”,帮助机器发展出合乎道德的语言表达能力。具体而言,第一,将技术纳入道德共同体之中,并受到和人类主体一样的道德关注、道美雪莉 特克尔:重拾交谈,王晋、边若溪等译,中信出版集团,年,第 页。,:,易显飞:技术自身的道德意蕴:一把解开智能时代的伦理钥匙,云梦学刊,年第 期。人工智能与信息社会德评估。第二,无论是技术的设计者,还是技术的使用者,我们都需要将自己的角色从技术好像与自己无关的批判者角色转变为技术设计与使用的参与者角色。第三,人们应将 的发展当作在人与技术融合在一起的背景下,人与技术各自寻找自己的社

38、会位置、锻炼自己承担起自己应担负的社会责任的能力与相互协同发展能力的一次机会。第四,应采取技术道德化设计的方法,将人们在利用技术进行社会实践过程中可能出现的传播伦理问题或发现的传播伦理问题,提前或及时地嵌入技术运转的机制、程序、代码之中,优化人工智能的机能,如日本学者宇佐美真有美()根据“话语基本态”概念所提出的意为“通过限定会话场景和会话参与者的年龄、身份、性别等因素,来认定不同场景中的典型语言要素、特定言语行为的表述连锁链以及话题展开模式”的话语礼貌理论,就可以直接被应用于人机对话系统的程序编写,从而解决典型语言要素和特定言语行为谈话流程难判定、产出语言机器腔调浓厚等问题,进而促使人机对话

39、以更合理、有序、合乎道德。(四)政府应制定致力于规范人机对话传播伦理的法律法规条例为了应对 时代人机对话中存在的传播伦理问题,政府应在相关的管理人工智能法律、法规的基础上制定致力于规范人机对话的条例。一方面,这是因为随着人工智能发展到 阶段,技术的主体性不断增强,甚至成为像人一样的主体,人机对话在越来越智能、便捷的同时,也出现了一系列的问题,但目前,这方面还没有专门的立法;另一方面,则是因为现在人工智能发展领域中存在的许多伦理问题大部分都与人机对话、媒介传播有关。因此,亟须从法律维度认识与规范人机对话过程中出现的传播伦理问题。为此,国家出台了相关的法律法规,如关于加强科技伦理治理的意见关于加强

40、我国人工智能领域伦理治理的提案等,针对人工智能引发的传播伦理问题日渐突出,纷纷提出加强人工智能领域传播伦理问题的建议、提案。年 月 日国家互联网信息办公室更是起草了首个国家 监管文件生成式人工智能服务管理办法(征求意见稿)向社会公开征集意见。从目前该文件的征求意见稿可知,该文件专门设置了相关条款对生成式 引发的个人隐私、肖像权、名誉权侵犯行为,个人网络输入信息的非法使用、生成式 对个人的沉迷、信息歧视、价值观误导、身心健康损害、用户依赖或沉迷等违反传播伦理的行为进行规范。总的来讲,这些法律法规对于规范人机对话中出现的传播伦理问题具有重要的启发与借鉴意义,但这些还远远不够。未来应针对人机对话过程

41、中存在的传播伦理风险问题,进行更有针对性的、更加细致的立法或设置专门的法律法规条款,尤其是在隐私法律、道德和法律责任方面。因为人机对话会涉及机器如何规范、安全、合理、负责地处理包括声音、动作、肖像、指纹、网络痕迹、用户输入信息、购物记录、位置数据、社交媒体信息等具有高度敏感性的个人信息,如果违反之后,如何对其进行价值校准与法律规制等问题。美玛格丽特 博登:人工智能的本质与未来,孙诗惠译,中国人民大学出版社,年,第 页。毋育新、李瑶:语言学赋能日本人机对话系统研究,中国社会科学报,年 月 日。中央网信办:国家互联网信息办公室关于生成式人工智能服务管理办法(征求意见稿)公开征求意见的通知,:。阅江

42、学刊 年 第 期 四、结 语 时代人机对话产生了以下传播伦理问题:“语言区隔”容易导致人机对话陷入“交流的无奈”,机器的拟人化、人的机器化导致社会交往的工具理性化,人工智能技术的不当使用加剧隐私侵犯行为的发生,话语失范与语言污染引发人机对话陷入语言攻击陷阱,机器沉迷容易引发情感依赖、自杀等社会越轨行为,机器交流的智能化与信息茧房效应的加剧。而为了更好地应对 时代人机对话存在的传播伦理问题,则需要根据人机对话的最新实践,调动社会多元主体的力量来应对。具体而言,首先,公民个人应在实践中养成一定的机器素养;其次,社会应建立适恰的人机对话传播伦理规范;再次,工程师、平台、技术公司等应采取措施将机器“道

43、德化”;最后,应制定致力于规范人机对话存在的传播风险的法律法规条例。当然,除了上述这些人机对话传播伦理问题与应对方法之外,可能未来随着 时代的来临、生成式人工智能技术的不断发展及其在社会中的应用,还会产生其他的人机对话传播伦理问题。我们相信,经过人们不断地探索与研究,秉承“发现问题、解决问题”的实践精神,一定能够有力地防范技术带来的传播风险,并探寻出富有成效的应对人机对话传播伦理问题的办法。正如计算机科学家约翰莱斯特所言,在人机交流过程中,机器人会教会我们如何看待它们,如何与它们一起生活。我们会进化到去爱我们的工具,而我们的工具也会进化得更加可爱。与此同时,为了更好地应对 时代人机对话存在的传播伦理风险,未来,新闻传播学界应加强对人机对话的历史、人机对话的范式、人机对话的特点、生成式人工智能对人类交流伦理与机器交流伦理的影响进行探究,并与伦理学领域关于人机对话的伦理规范研究、人工智能学领域关于生成式人工智能如 的技术特性和人机交流的语言研究等进行跨学科的交流、对话。责任编辑:李海中卫欣:网络礼仪的历史脉络与学术视野,新闻爱好者,年第 期。美雪莉 特克尔:群体性孤独:为什么我们对科技期待更多,对彼此却不能更亲密?,周逵、刘菁荆译,浙江人民出版社,年,第 页。阅江学刊 年 第 期,“”,“:,”,:,:,“”,“”“”,“”:,

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服