收藏 分销(赏)

关于把关人理论的ChatGPT传播角色定位和跨文化传播思考.pdf

上传人:自信****多点 文档编号:635634 上传时间:2024-01-20 格式:PDF 页数:5 大小:527.89KB
下载 相关 举报
关于把关人理论的ChatGPT传播角色定位和跨文化传播思考.pdf_第1页
第1页 / 共5页
关于把关人理论的ChatGPT传播角色定位和跨文化传播思考.pdf_第2页
第2页 / 共5页
关于把关人理论的ChatGPT传播角色定位和跨文化传播思考.pdf_第3页
第3页 / 共5页
亲,该文档总共5页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、传媒文化关于把关人理论的ChatGPT传播角色定位和跨文化传播思考李蕊人工智能技术进步催生ChatGPT等工具诞生,顺应了工具媒介化、传播赋能的趋势,对现有传播生态造成冲击。本文基于“把关人理论”,从ChatGPT算法和传播机制深入分析其在传播链的定位,讨论传播过程中的潜在风险,并思考其在跨文化传播中的赋能和负能。本文认为,ChatGPT算法思路决定了其“传受一体”角色,实现“二次双向把关”,也造成生产传播虚假信息、加深算法偏见等潜在风险。ChatGPT在跨文化传播领域有能力实现多主体、越边界的精准传播,但也存在限制受众选择权、过度影响认知的风险,因此需辩证对待人工智能技术及其在传播学领域的影

2、响。互联网的面世和普及将人类文化传播引入崭新的“互联网时代”,社会网络化将每个人都与互联网产生关联,并在资本运作下主动成为“数字劳动力”。随着人工智能技术崛起,“数字劳动力”主体角色部分被转移给可模仿人类行为的机器人,由此衍生出诸如“社交机器人”“新闻机器人”等工具。早期的社交机器人功能单一,而技术迭代后已能完成与用户精准对话等高级动作,随着云计算、自然语言处理等信息存取与分析技术的发展与普及,算法仿真和训练获得真值,社交机器人得以更好对用户行为进行模仿。数字机器人背后仍是以人为基础,无论是开发或使用主体,机器人学习指令、产出并传播内容的行为根源于人类意识,目标是无限接近人类思维,近期引发广泛

3、关注的 ChatGPT 即是技术发展最新成果。基于以上对媒介主体化的讨论,ChatGPT无疑将成为数字传播新主体,本研究认为其对传播生态的颠覆或将不局限于其单一身份的转变,在传播过程中的定位值得深思。一、ChatGPT传播角色定位ChatGPT是美国科技公司OpenAI推出的一款聊天机器人,本质上是基于 GPT架构进行设计和训练的人工智能语言模型。ChatGPT与其他聊天机器人相近,采取Q&A模式回答用户提问。但基于其独特算法机制和学习文本来源,ChatGPT已然在模仿人类层面达到新高度,使其不再是简单的媒介工具,甚至不仅是新兴数字传播者,而是“传受一体”的“双向把关人”。(一)高智能接受者:

4、广泛学习的拟人工具不同于以往被认为是单一传播主体的媒介工具,ChatGPT 经过优化的算法机制和其海量训练数据决定了它不仅对受众产生潜移默化的涵化作用,也正在数据学习和训练中接受来自信源的涵化。据OpenAI官网开放论文介绍,ChatGPT-3初92传媒文化步构建分为两步,即预训练和微调。ChatGPT是一种基于自然语言处理的AI系统,使用深度神经网络和自然语言处理技术来生成文本。在数据训练阶段使用海量文本数据,包含语言的各种形式和用法。为打造坚固数据基底,ChatGPT使用了超40GB英文文本数据进行预训练,包括维基百科、书籍、新闻文章等,以保证能够涵盖大量的语言知识和语言结构。海量网络信息

5、数据来源意味着模型在形成前即处于接收者的位置。涵化理论认为传播媒介对受众对世界认识的影响是一个长期而微妙的修养过程。拥有快速处理文本能力的计算机技术允许ChatGPT预训练模型加速涵化效果,不同于人类受众有选择地接受涵化,ChatGPT 作为无感情受众会分类整合所有学习文本信息,形成全面认知。由于网络信息的传播主体仍是人类,因此 ChatGPT 的学习环境是李普曼所提出的“拟态环境”,其中混杂着事实性信息和意见性信息,这从根本上导致 ChatGPT 既与普通人类在相同传播环境中学习,环境一致性保证了其最终产出的内容与人类受众认知在同一维度,但也决定了无法摆脱人类传播者的意识形态,绝对客观性无从

6、谈起。(二)数智化传播者:高度个性化的私人信源和许多媒介工具相同,ChatGPT最终目的是回答用户输入的问题,即产出信息完成传播动作。外界曾将其喻为可回答任何问题的智能搜索引擎,在传统搜索引擎中,用户输入提示即可得到与之相关的海量信息页面,而ChatGPT对同样指令给出直接的文字回答。基于类似的提供信息的能力,ChatGPT已被许多学生或研究人员作为快速获取知识甚至产出知识的有力工具。保证准确识别用户提示并作出更加真实地反映源于GPT-3模型进行的强化学习优化,在上述预训练后,更为复杂的训练和微调机制为其更好理解用户提示奠定基础,其核心即RLHF从人类反馈中进行强化学习。根据OpenAI对模型

7、训练和优化三步骤的解释可知,监督策略模型阶段中,数据标注人员从测试用户提交指令中随机抽取并给予高质量回答,已标注的“指令回答”数据用于微调模型,使其能够初步理解指令意图;训练奖励模型阶段使用已微调的模型对随机抽样的用户指令生产多个回答,标注人员对其进行优劣排序并打包生成新的数据集用以训练奖励模型,让模型学习更优质地回答;PPO 强化学习算法增强前期预训练模型,利用训练完毕的奖励模型对用户指令重新打分评估以更新预训练模型参数,即从人类反馈中学习并不断优化回答。由此,ChatGPT 高度个性化不仅在于一对一准确回复,且在互动过程中,人类反馈会被作为其再学习的数据集,动态学习和更新输出可解释为何随着

8、人类教学指令的深化和精细化,其回答质量逐步提高。由此ChatGPT不再是有认知边界的刻板传播者,而是能够模仿人类、学习人类的高度拟人化传播者。需注意的是,从受众角度,ChatGPT 与搜索引擎最大的区别在于其缩小了信息的可选择范围。搜索引擎提供的是全部相关信息,对受众最终的信息选择结果不负有直接责任,而 ChatGPT 具有互动私密性,受众与信源的关系由“一对多”缩小为“一对一”,ChatGPT对受众信息接受与认知影响直接负责。(三)二次双向把关人“把关人理论”最早源于心理学研究领域,怀特将其开创的把关人理论首先直接引入新闻学。传统把关理论中,休梅客认为把关是选择过程,将某天世界上获得的上百万

9、信息削减、转变成上百个信息传93传媒文化达到某个人,曾经,媒体是把关的首要角色。新媒体时代中,每个人既是信息接受者,也可是传播者,“自我把关”削弱了传统媒体高度集中的把关权。ChatGPT的出现在某种程度上还原了媒体曾经掌握的把关权,并在模型学习和产出信息的基础上实现了二次把关。多元传播主体直接面向受众的把关机制被打破,ChatGPT 利用其强大信息整合能力对上级信源进行过滤筛选,这一过程完成于原始数据收集和基于“算法+人工”的数据清洗过程中,即形成一次把关。在训练和微调过程中基于人类反馈不断学习和更新产生的信息,利用其直接面向受众提供“唯一”答案的特点成为信息到受众阶段的直接把关人;在无监督

10、学习的训练和微调过程中完成信息自查自产,将新信息直接传播给人类,即形成二次自我把关。因此,如果加上原始信息被传播过程中传播主体的一次把关,在ChatGPT介入后的传播链中,受众最终所获信息即面临着三次把关。结合拟态环境理论,李普曼认为拟态环境并不是客观环境的镜子式再现,而是大众传播媒介通过对新闻和信息的选择、加工和报道,重新加以结构化以后向人们所提示的环境。而ChatGPT在传播过程中基于原有拟态学习环境又营造了新一层的拟态环境,且不同于大众传播媒介的人为选择性,ChatGPT基于无监督学习借助复杂的算法机制“自主”生产传播内容,虽然其训练数据文本仍来自人类,但在结果产出中并不再完全还原文本最

11、初的内容。需要注意的是,ChatGPT对信息的二次折射还意味着受众在原有拟态环境中所拥有的信息选择权在新的拟态环境中被削弱,海量信息的过度简化一方面满足了快时代背景下用户快速获取信息的便捷化需求,另一方面也变相引导受众陷入“快传播”制造的全知盲区。二、ChatGPT传播风险预判随着人工智能技术一次次突破人类认知,关于人工智能生成内容在传播机制中的利弊讨论已在学界呈逐渐流行的趋势。技术作为工具从本质上并不具备情感和偏向,但人类介入深度将决定技术何种程度上映射人类意志,广大用户的个性化使用也决定技术的使用途径和结果。ChatGPT作为动态学习的语言模型,将原本调整技术的具有高门槛性的获得权力下放给

12、普通用户,人人赋权下的ChatGPT人类反馈学习允许用户无意识提供学习样本,因此谁在提示、如何提示、提示什么等问题应在技术崛起时代引发思考。(一)自信的幻觉:虚假信息对人工智能技术生成虚假信息的讨论几乎伴随其整个发展历程,“幻觉”一词虽已成为人工智能研究领域对机器人算法缺陷的常见描述,但相关争论也未曾停止,指的是人工智能产出欺骗性内容且对之十分自信,而生成的内容与提供的源内容无意义或不可信。ChatGPT虚构信息的风险常被归结于黑箱性质,即深度学习被看作一种根本不透明的黑箱技术,不能或者只能被人类部分理解。基于其复杂技术运作上,初级语言模型学习文本源于网络,信息质量良莠不齐,自身混杂着事实信息

13、和虚假信息,即使在训练和微调阶段引入人工判定和监管,但人类对虚假信息分辨能力的有限性无法保证在海量数据中完全筛选出虚假信息,层层筛网均存在的漏洞使得部分虚假信息成功流入最终提供服务的语言模型。已知GPT-1 参数量达 1.17 亿,预训练数据量约 5GB,GPT-2 参数量达 15 亿,预训练数据量约 40GB,GPT-3模型训练数据规模提升到175GB,体量飞跃意味着更多掺杂虚假信息的文本被纳入模型学习,94传媒文化95即使是小概率虚假信息流入,其实际文本体量都足以在大概率上影响受众判断和认知。此外,RLFM技术从人类对信息的反馈中强化学习,意味着人类对虚假信息做出的错误判断将再次促使 Ch

14、atGPT 对错误信息的处理更加自信。在某种程度上,虚假信息源于人类创造,借助ChatGPT加深于人类无法识破虚假信息的认知限制,而在这个过程中,ChatGPT 完成了“收集放大再传播”的传播动作,利用人类对其强大算法的肯定认知,ChatGPT 所建立起的可信赖性和权威性为虚假信息作出错误的担保,便于其更有效对人类受众产生负面影响,即谎话说了一千遍终成真。(二)近墨者黑:偏见与算法歧视人类创造的文本通常伴随认知和情感的体现,通过用词、修辞等语言学手法所隐含的深层感情能够被计算机技术解码分析,传播学界已有许多研究交叉计算机学科领域自然语言处理对文本进行情感分析的成果。而ChatGPT又能利用强大

15、算法学习能力进行文本再编码,让蕴含情感浮出表面,不乏各种形式的偏见、刻板印象。据清华大学交叉信息研究院助理教授于洋在 2022 年 12 月带领团队所做的GPT-2性别歧视水平评估项目显示,在包含职业词汇的“中性”语句中,由AI预测生成一万个模板,GPT-2有70.59的概率将教师预测为男性,有64.03的概率将医生预测为男性。算法歧视伴随算法兴起而产生,目前尚无统一定义。一般而言,由于数据样本、初始算法等原因而造成的人工智能在作出决定时的偏向性思维惯性处理,被称为算法歧视。算法歧视与偏见在ChatGPT 中的传播机制类似于虚假信息,同样由于源数据所裹挟的情感倾向经由语言模型习得和加强而再次传

16、播给人类受众。在这个过程中,人类介入和干预的影响相较于虚假信息的输入和筛选更为明显,从数据清洗到回复排列,人类的选择和判断反映于最终产出的结果。尽管 OpenAI 表示已采取多种方式降低人类干扰对模型产生偏见和歧视的影响,如设置红队与语言模型进行针对偏见的对抗训练等,但由于人员体量和认知水平差异,ChatGPT 仍然不断遭到用户投诉称其回答中带有偏见和歧视。根据各大领先AI公司数据显示,全球雇用数据标注工人的情况并不少见,如同样为OpenAI提供数据标注服务的Scale AI曾在菲律宾、肯尼亚等劳动力低廉的国家雇佣,平台注册数据标注工已超10万人。综合来看,数据标注工雇佣大多集中在相对落后的国

17、家或地区,不仅造成了劳动力剥削相关争议,更引发了对数据质量的担忧。欠发达现状决定了许多数据标注人员的认知水平限度,如研究显示经数据标注后的算法识别的美国新郎图像的准确率远高于对埃塞俄比亚或巴基斯坦新郎图像的准确率。三、跨文化传播视角下的ChatGPT思考ChatGPT同许多同类计算机技术一样,打破了全球用户在时间和空间维度上的壁垒,允许信息在不同时空中任意传播,而语言障碍的突破使传播活动中的“语言”“文化”“传播”三要素发挥最大传播效能。当向ChatGPT提问对跨文化的理解,其回答为不同文化背景的人们之间的互动。设计者的愿景是通过打破各文化间的藩篱构建新的文化表述形式,以促进各文化的和谐共生。

18、从传播表现形式看,ChatGPT的确能实现不同文化交流,不仅在于其学习文本多样,也在于和不同文化背景的用户“反馈学习优化输出”的互动机制允许各类文化在超越时空限制的基础上以一种更为即时和动态的形式、以ChatGPT为工具和载体进行融合和输出,真正实现传媒文化96多主体、越边界的跨文化精准传播。但ChatGPT跨文化传播在现阶段也难以规避风险,算法歧视将加速对某一群体刻板印象的加深,一对一传播形式限制了受众认知和思考的边界,“唯ChatGPT论”利用人类受众快速获取信息的心理助长了其避免全面接收信息、深度思考的不当行为,传播背后本已不平衡的话语权分配也将因掌握技术和内容控制权而使边缘化群体进一步失去发声机会。结束语技术作为工具本无好坏之分。ChatGPT作为人工智能技术进步道路上的里程碑式的创造,对人类传播和文化交流必然产生深远影响。鉴于其在传播生态中的复杂角色和特殊影响,人类受众相应地同时扮演着ChatGPT老师和学生的双重角色,合理使用传播技术、批判接受传播信息是人类受众利己利他的有效途径。而随着人工智能技术的发展无止境,学界也应对ChatGPT及此后可能出现的工具进行深度思考和辩证研究,以期在人机交互、人机融合的过程中营造更优良的传播环境。作者单位:北京外国语大学

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      联系我们       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号  |  icp.png浙ICP备2021020529号-1 浙B2-2024(办理中)  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服