收藏 分销(赏)

ChatGPT:生成式人工智能形塑社会认知的能力与风险.pdf

上传人:自信****多点 文档编号:831328 上传时间:2024-03-27 格式:PDF 页数:8 大小:12.04MB
下载 相关 举报
ChatGPT:生成式人工智能形塑社会认知的能力与风险.pdf_第1页
第1页 / 共8页
ChatGPT:生成式人工智能形塑社会认知的能力与风险.pdf_第2页
第2页 / 共8页
ChatGPT:生成式人工智能形塑社会认知的能力与风险.pdf_第3页
第3页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、6追问生成式人工智能在传媒领域的应用生成式人工智能(AIGC)热潮蔓延半年有余,根据网站数据分析工具SimilarWeb 最新调查显示,ChatGPT 的访问量在 2023 年 1 月的环比增长率为惊人的 131.6%;我国短短半年间涌现出了 40+的大模型(10 亿级参数规模以上大模型已发布了 79 个,2023 年 5 月,中关村论坛的数据)。以 ChatGPT 为代表的生成式人工智能凭借优秀的自然语言处理与生成能力,介入社会生活与知识体系的程度日益加深。在新闻采集、新闻生产、新闻传播、智能生成广告等传媒领域都有广阔的应用前景,推动了传播权力的继续下沉。本期继 2023 年第 2 期“Ch

2、atGPT 是一场革命吗?”之后,再次聚焦“生成式人工智能在传媒领域的应用”,邀请诸位专家学者展开讨论,思考生成式人工智能所输出的动态价值观对人们认知偏向的诱导、虚假信息的泛滥、削弱人的主体性意识等方面的影响;梳理新闻传播学人才培养脉络,思考 ChatGPT 给新闻从业者带来的挑战;探索智能生成技术对一线广告创作人员的辅助作用;进一步拷问人机关系。敬请品读。1.ChatGPT:生成式人工智能形塑社会认知的能力与风险 /朱毅诚 刘玉涵 蒋雪妍2.人机协作背景下 AI 对新闻业人才培养带来的改变与挑战 /段佳宇 郑汝可 李倩3.2018-2022 智能广告研究综述 /陈齐 甘晨4.互补与共生:想象

3、可供性视域下 ChatGPT 人机关系分析 /兰朵 陈舒淇策划语策划:刘茜执行:李净7专题智能传播时代,人工智能的发展不断演进,生成式人工智能(Generative Artificial Intelligence)是其中亮眼的分支,受到各领域的广泛关注。其中,作为生成式人工智能典型代表的 ChatGPT 凭借其优秀的自然语言处理与生成能力,在内容创作、机器翻译、工程辅助等多方面表现不俗,收获了可观的讨论量且热度持续不减,启发了人们考量其作为获取信息的媒介,介入社会生活与知识体系的程度日益加深、形塑社会认知的能力与风险。1.生成式人工智能与社会认知1.1 生成式人工智能的概念及运作逻辑随着现代新

4、科学的发展,人工智能技术不断突破自身范畴,在时空、生产等领域带来更为深刻的转变。不同于此前分析式、决策式的 AI,生成式 AI 是“利用机器学习算法,创造新的和原始内容的人工智能类型,是利用人工智能技术自动化创造信息的过程,能够实现令用户满意的个性化需要”1,其所依据的算法可根据训练样本进行建模,并抽取新样本。它得以应用于写作、程序编写和情境聊天等多个内容生产服务领域。生成式人工智能不仅可以通过学习数据集来整合信息,还可以生成学习样本之外的新内容。2以 GPT为例,其开发公司 OpenAI 以自回归作为训练算法理念,基于谷歌在 2017 年推出的 Transformer 模型架构,构建了预训练

5、语言模型(Generative Pre-trained Transformer)GPT-1。自 回 归 模 型(Autoregressive Model,ARM)直接根据训练数据的表征状况来对需要生成的内容进行推断3,在通过上下文确定第一个词语与其他词的相关性后,便用它来推测下一个词。以此类推,直到完成对整个字段的分析。2Transformer组件为预训练语言模型提供了语言的编码器和解码器,该架构引入了“自注意力”(Self-Attention)机制,利用该机制可根据每一个词所处的位置来确定它和其他词之间的相关性,从而直接输出最有可能关联的信息2,即通过对上下文的把握输出该词语在此处最适宜的含

6、义。总的来说,预训练的第一步是在大规模的无标注数据上对模型进行预训练,学习文本中所含的通用语言模式;第二步是给予该模型一些基于小规模有标注数据的自然语言处理任务,通过模型的完成表现对其进行微调,在反馈强化中提升模型应对此类任务的能力,最终形成可嵌入应用的预训练语言模型。OpenAI*为本文通讯作者ChatGPT:生成式人工智能形塑社会认知的能力与风险 朱毅诚*刘玉涵 蒋雪妍(北京师范大学新闻传播学院,北京 100875)摘要:【目的】以 ChatGPT 为代表的生成式人工智能凭借优秀的自然语言处理与生成能力,其介入社会生活与知识体系的程度日益加深,对思想观念的影响也成为其社会动员的潜在能力,因

7、此人们需要认识其作为媒介手段影响社会认知的能力。【方法】文章基于生成式人工智能的运作逻辑与机器学习的创新能力,梳理其影响社会观念的层面与可能性,以提醒人们应对潜在风险。ChatGPT 的出现推动了传播权力的继续下沉,其参与社会关系的路径包含机器学习所输出的动态价值观对人们认知偏向的诱导、虚假信息的泛滥、削弱人的主体性意识等影响。【结果】【结论】人工智能领域不断革新的趋势下,生成式 AI 深度侵入认知层面提醒人们可以基于此去辨析机器生成与表达的深层逻辑,警惕偏见性引导。关键词:认知诱导;社会认知;智能传播;数字“驯化沟”中图分类号:G236 文献标识码:A文章编号:1671-0134(2023)

8、08-007-07 DOI:10.19483/ki.11-4653/n.2023.08.001本文著录格式:朱毅诚,刘玉涵,蒋雪妍.ChatGPT:生成式人工智能形塑社会认知的能力与风险 J.中国传媒科技,2023(08):7-13.专题8通过对 GPT 采用更多的 Transformer 解码器和更大的语料库进行训练,促使其不断发展,2022 年 11 月推出3.5 版本,即 ChatGPT,2023 年 3 月发布更为完善的GPT-4,在对话生成、文本写作等方面展现出卓越的能力。1.2 人工智能和社会认知建构人工智能的使用随技术发展逐渐遍布全球,特别是生成式人工智能超越人与人的交流过程,成

9、为传播的主体,成为话语的生产者与解释者,在不同的应用场景中发挥强大功能。从能够建立庞大的数据库和高效的计算能力,语音、计算机视觉、医疗健康等领域的跨界融合,到人机协作的“分工合作”等,强大的人工智能载体在追求类人认知模拟的过程中,建构了一个可以共享的知识世界。当生成式 AI 被用于现实传播实践中,其组合的多层面信息提供了整个社会对某一主题的看法,其动态化、场景化、无边界、低门槛性和即时交互等特点,使其在更易达到深层、有效交流的同时,也会在运行过程中被利用产生不实信息,将存在道德偏误的观念循环传播,甚至参与人的主体性变化过程,潜移默化间改变人们的认知,形塑社会观念。1.2.1 虚假信息与人类认知

10、特点的关系在社会生活中,人们搜集信息以消除对环境的不确定性、维持生存,各类信息成为人们进行社会判断的依据,而当信息真实性存疑时,谣言的传播会扰乱信息环境,也将影响到社会认知的形成。传播实践中,虚假信息的拟真度、专业程度及所携带的身份政治因素等都是影响认知效果的要素。虚假信息的拟真度是指其与真实信息之间的相似程度,涉及其形式、内容所含元素是否更加贴近现实、更加可信等。人工智能技术的拟真度则是对人的认知、偏好、情感、行为等维度的模拟相似度。高拟真度的虚假信息更容易得到认知信任,被人类在认知上相信并传播。学者李艳红等曾对人们相信假新闻的认知心理进行解释,将人们对假新闻信念形成的认知机制归纳为“思维论

11、”和“动机论”。基于双重认知过程理论的“思维论”认为,人类的认知活动存在两种本质上不同的机制,其中一种特点为依赖直觉,加工速度快,只需要较少的意识参与和认知努力,容易受背景相似性和刻板印象的影响,这种直觉性思维的启动可能导致人们容易相信假新闻4,所以人类在信息处理过程中倾向于依赖已有的认知框架和经验,更容易接受拟真度较高的,与人们的价值观、信仰体系相符的虚假信息。从“动机论”来看,基于认知协调理论,人们总是以一种有动机或保护身份的方式思考,在面对虚假新闻或信息的时候,他们首先判断的也是是否符合自己的立场、政治派别、宗教信仰和意识形态等。4人们倾向于寻找与自己身份认同相符的信息,虚假信息如果与个

12、人或群体的身份政治相关,往往更容易被认同和传播。此外,在专业知识的需求中,人们更倾向于相信那些被专业人士、权威机构或有影响力的人所发表的信息。虚假信息如果包装得具有专业性和权威性,往往更容易获得人们的认同和传播。1.2.2 道德观念与人类认知特点的关系不同的道德观念会塑造人们的认知模式和框架,影响他们对世界的理解和认知方式。例如,个人主义与集体主义之间的道德观念差异会导致不同的认知模式。个人主义倾向的个体可能更注重自我利益、竞争和自主性,集体主义倾向的个体则更强调团队合作、互助和社会责任。这种差异会在人们的认知过程中体现出来,影响他们对信息的选择、理解和解释方式。媒体的价值取向和道德观念也会通

13、过人们的接触过程对个体的认知产生影响。媒体价值观是指媒体对报道事件的价值实质、构成和标准的认识,主要包括对某媒体机构或组织的认知、审美和伦理观等。5媒体作为信息传播的重要渠道,不仅提供了各种信息和观点,还通过价值评判、道德框架等方式影响着人们的认知和判断。人们在接触媒体时,可能会接触到与自身道德观念不同的信息,这可能引起个体的道德观念改变,并对其世界观和认知模式产生影响。例如西方媒体报道多以揭示社会问题和社会阴暗面为主题,而我国重视新闻媒体作为舆论工具的作用,坚持正面宣传和教育为主,这可能引发不同地区人们对自我所生活社会环境的认知。6同时,人类的认知过程中存在着一些认知偏见,道德观念也会与这些

14、认知偏见产生关联。例如,道德偏见是指在道德判断中,人们倾向于偏袒自己所持道德观念相符的信息,而对相悖的信息持怀疑态度,以减少与自身已有观念的冲突。这种偏见可能导致个体对信息的选择性接受和理解,从而影响其认知模式和框架。1.2.3 人类的主体性、认知模式与人机交互中的变化马克思认为,人的主体性就是要通过主观能动性实践来充分张扬人性,凸显人相对于其他一切存在独9专题一无二的特性,并在实践过程中实现人的自由而全面的发展。7人类的主体性在社会生活和媒体信息接受中与人类的认知模式密切相关。主体性的不同程度可能会改变人类的认知模式。通过结合人机交互的发展和人工智能时代的变化,可以进一步理解人类主体性的变化

15、及其对认知模式的影响。从历史发展的维度来看,人类主体性经历了从以前的电视、收音机等单向媒体时代的弱主体性,到后来社交媒体时代的强主体性,再到现在的人工智能时代的变化。在单向媒体时代,人类主体性较弱,信息传递是单向的,个体在接收信息时扮演被动的接收者角色,无法直接参与信息的生成和交流。这种弱主体性限制了人们的选择性和认知模式的发展。随着社交媒体的兴起,人类的主体性得到了增强。社交媒体平台提供了参与和互动的机会,使个体能够主动产生和分享信息,与他人进行交流和互动。这种强主体性促使人们在认知过程中更加积极主动,选择自己感兴趣的内容、参与群体讨论,并根据自身需求和观点进行信息的解读和评估。然而,在人工

16、智能时代,人类作为创造者在部分工作中可能会经历主体性变弱的情况,同时人机之间的合作方式也可能随之发生改变。随着智能技术的发展和应用,某些重复性和机械性的工作可以被自动化或由智能系统完成,导致人类在这些工作中的主体性减弱。人类更多地扮演着监督者、调整者和创造者的角色,与智能系统合作完成任务。这种变化对认知模式产生了新的影响。人类需要适应与智能系统的协同工作,跳脱出“与机器赛跑”的无意义轮回,发挥自己的情感与创造能力,发展新的认知能力和技能。除了技术技能,人类还需要培养与智能系统相互理解、协调和沟通的能力。这种新的认知需求可能引发人类在认知模式、思维方式和问题解决能力等方面的变革。综上所述,人类的

17、主体性、认知模式与人机交互中的变化密切相关。从单向媒体时代到社交媒体时代再到人工智能时代,人类的主体性经历了演变和转变。这种变化在一定程度上影响了人类的认知模式和参与方式,要求个体在适应新的主体性和合作方式的同时,不断发展和调整自身的认知能力,以更好地应对人工智能时代的挑战和机遇。2.虚假信息制作门槛降低卡斯特认为,在信息网络社会中,与网络相关的知识及技术能力在很大程度上决定了网络中的权力关系。他提出“传播即权力”,认为网络社会中的话语通过地方全球的多模型数字化传播系统,由人们生产、传播、争夺、内化,并最终体现在人类行动中。8在卡斯特“传播力”理论的基础上,我国学者唐俊认为“传播权力主要考察的

18、是个体在技术层面自主参与、利用媒介关系的能力。”9本文基于此概念认为,随着媒介智能化程度的逐渐加深,传播者的主导地位也进一步消解,算法深度服务于用户需求,以其为中心进行内容的个性化生产与推送;生成式人工智能则更进一步,以 ChatGPT、文心一言为代表的基于“生成型预训练模型”的聊天机器人,可为用户信息提供生产资源与技术支持,促使传播权力进一步下沉,从而刺激社会性内容创作的大爆发。以 ChatGPT 为例,一方面该聊天机器人最新版本的数据库更新虽仅截止到 2021 年 9 月,但其背后用于训练模型的参数量体量庞大,涵盖各类人群、场景与事件所生成的数据记录,此前的 3.5 版本所公布的参数量就已

19、高至 1750 亿个。因此,当用户向 ChatGPT提出要求进行答案索求时,实际上也就是正在利用GPT背后强大的、海量的数据信息资源进行内容生产,即 ChatGPT 给予了每位用户打破内容创作中的信息资源垄断,并以一种高度整合、覆盖全面的社会数据库为基础进行内容生产的机会,从而催生主体的创作积极性;另一方面,除去作为直接产出内容的媒介,ChatGPT 还可以为用户智能生成符合其要求的代码。代码生成(code generation)是指从文本转化为代码,将输入的自然语言转为特定编程语言。10受训于大量代码与自然语言的 ChatGPT 可以通过上下文、注释等生成代码,并且精通十几种程序语言。在辅助

20、人类编程之前,GPT 首先要经过某种编程语言的选定数据集进行训练,数据集内会包含各种编程任务的代码示例,根据深度学习框架完成任务、训练模型。在投入使用后,用户仅需给定所需的编程语言类型及任务的文字描述,即可得到满足需求的代码,必要时,还可对其附加特殊限制,例如:指定其使用特定的数据包等。即使代码运行出现错误或不完整等情况,仍可将问题反馈给ChatGPT,使其不断优化、给出解决方案。这使得数据算法技术的使用门槛降低,拥有不同学科背景的人,仅需掌握基础计算机操作技能,便可按需进行数字内容生产,刺激社会性的数字化创作。搭载于 GPT-4,微软公司旗下的 GitHub 近期发布了 Copilot X

21、智能编程助手,可实现自动补全代码和注释,同时在代码编辑器中增加了聊天界面,聊天机器人能够识别和解释代码,并提供修改建议和错误修复,该程序专题10还可以通过语音控制,这些都拓展了未来数字代码发挥功用的空间。但社会内容生产的爆发也会带来诸多问题,其中用于训练 ChatGPT 的 Transformer 架构可以在大量文本对话数据集中进行训练,学习人类的对话模式、高度且准确理解人类语言,因此使用 ChatGPT 对用户并无太多的语言能力限制,这使得该模型的适用人群十分广泛,所生产出的内容也鱼龙混杂、质量良莠不齐。在生成式 AI 参与下的混乱信息生态中,虚假信息逐渐肆虐、充斥网络。AI 文图生成器(t

22、ext-to-image generator)是目前运用较广的生成式 AI,Midjourney与 Stable Diffusion 是其代表性产品。Midjourney 即为一款图像生成领域的简便的 AI 工具,只需输入文字,便可在一分钟内得到自己想要的图画。在创作画像时,Midjourney 遵循不同的命令格式。例如在人物画像创作中,它会从视角、距离、情绪、服装、风格和光源等方面进行图画构造,即使描述模糊,也会以倾向于“美”的审美标准产出华丽的视觉效果。同样地,Stable Diffusion 借助自身模型与注意机制,使输入文本与图像相关联,同时包含去噪处理。简便、低准入门槛的 AI 制图

23、已经带来了广泛传播并影响恶劣的实例。2023 年 3 月,美国前总统特朗普曾在社交媒体中声称自己将于某日被抓捕,当日期临近,网络上突然出现了他被捕的现场照片,并被大量传播。然而,不同相关信息帖涉及的被捕地点有所出入,这些照片随后被证实系网友通过 AI 文图生成器制作而成。AI 生成图片中,特朗普的面部表情清晰可见、身形相近、动作与场景设置符合主题,整个画面极具逼真性与戏剧性,可见人工智能生成内容(AI Generated Content)已有较强的可用性。而当 ChatGPT 被利用与 AI 文图生成器结合使用时,用户生产虚假图片信息的能力也将被大幅提升。以 Midjourney 为例,首先可

24、通过介绍性描述训练 ChatGPT 了解 Midjourney 的背景知识,随后使 GPT进行初步的 prompt 指示生成,并进一步训练其根据Midjourney 特有的命令格式给出格式化的 prompt,甚至是指定语言的指令。如此别有用心的用户仅需掌握主题词,便可使用 ChatGPT 更好地发挥 AI 文图生成器的能力,进行虚假图片的批量生产,并克服相应语言能力匮乏的问题,使全世界内的成熟 AI 都有可能成为其可利用破坏信息环境稳定的工具。因此,当生成式 AI 的使用门槛持续降低,网络空间中虚假信息的比例也会随之上升。特别是“利用人类反馈中强化学习(RLHF)”的训练方式,使模型逐渐具有对

25、生成答案的评判能力11,ChatGPT 产出的文本与人类的常识、认知、需求等也更加匹配,一方面虚假信息在形式上更加难以辨别,在内容上也更加贴合人类的语言习惯及主流价值观;另一方面,社会流传对机器智能精确、理性的推崇性认识,GPT 在整合海量数据库基础上的回答更易使人们相信这是基于此前社会整体认知所生成的社会合意,从而对其产生权威性崇拜,使得生成式AI产出的虚假内容更具可信性。同时,目前我国在数字化技术发展方面与西方仍有较大差距,若生成式 AI 被别有用心之人用于计算宣传,将操纵型的偏见内置于算法模型之中,便可随着大基数用户产生范围广阔的影响,又由于自动化、智能化生成内容的便利而给高效率产出虚假

26、信息提供了机会,威胁全球政治安全。生成式人工智能媒介的发展带来传播权力的进一步下沉,社会性内容生产被激发的同时也带来了虚假信息泛滥的风险,甚至隐含计算宣传的威胁。由此,社会整体信息环境被污染,一方面在充斥着虚假内容的网络生态中,用户难以辨别信息真伪,长此以往逐渐对所接触到的内容抱有怀疑态度并失去信心,即使是事关自身重大利益的事件,也难以调动用户的信任与参与;另一方面,计算宣传通过偏见内容的聚集引发舆论偏向,在群体中通过诉诸感情来挑起对立情绪,侵蚀了网络空间的公共性,干扰本应置于真正亟待解决的公共事件上的关注度,危害社会稳定。3.受限的情景化道德生成式人工智能实际上是人类智能与机器智能的交互组合

27、,两者在高度社会化的互动环境中共同输出自身认知和具体内容,这种互动不仅仅是人类在掌握主动权,机器对语言文本及意涵的学习也牵连着人对世界的认知。如维特根斯坦所言,“语言的边界就是世界的边界”,以 ChatGPT 为代表的生成式人工智能基于模仿人类语言的大型预训练语言模型(Large Language Model),可以在海量的自然语言文本和人机对话数据的学习过程中。植根于人类知识体系的学习语料使 ChatGPT 的自动化语言生成风格类人化,有机会深度参与到人们的日常生活与社会关系之中,不仅能回答一般咨询,更能为人类的问题提供建议,让人类在知识、情感、生活上对其产生依赖成为可能。此时,如果大型语言

28、模型在知识上有偏误、道德上有盲点,将对社会带来潜移默化的影响,而它的准确性与可靠程度在很大程度上便取决于训练它的数据集。11专题一方面,GPT的价值观受到身份政治、语言文化、可访问地区的限制。如果语言模型的训练数据中包含侵扰价值伦理的内容,如对种族的歧视、对性别议题的争论、关于霸权与特权的偏见等,这将导致负面语料的循环污染,文本中的刻板世界观得以传播。有资料显示,OpenAI 对 ChatGPT 的调试主要集中于英文数据,而非在训练语料里占比仅 0.1%的中文内容,且英文输出结果的逻辑性和准确性要远大于中文;应用访问的地区权限也反映着科技权力足以让机器的文化价值倾向成为一种担忧。此外,对 Ch

29、atGPT 应用中相互交织的个体互动也增加了人们对结果预知和控制的困难,平庸人工智能的风险对人类文明和个体素养都提出了挑战。另一方面,ChatGPT 的算法决定了其在早期阶段的道德判定是情景化的,会随着外部情况的改变而改变。ChatGPT 虽然能对高质量提问给予有条理的回答,但自身其实并不理解输入、输出内容的含义,只是从海量训练数据中拼凑出答案的“随机鹦鹉”,有可能在敏感议题上对语料文本随机拼凑、传递出带有种族主义和性别歧视的误导性信息。这种情景化道德(situational ethics)是危险的,可能会对用户有影响。如有研究让 ChatGPT 多次回答牺牲 1 人生命换取其他5 人生命是否

30、正确的问题,ChatGPT 对此分别给出了赞成和反对的陈述,显示它并没有偏向某种道德立场,但受试者做出的道德判断却受到其陈述的影响,并且人类用户很可能低估了自己受影响的程度,建议未来的研究可以在设计上让对话机器人拒绝回答需要给出道德立场的问题,或是在回答时提供多种观点和警告以影响人类用户的价值判断。12为防范由此可能带来的颠覆性社会伦理影响,相关领域实施了人机对齐工程,通过人类标注、反馈、审核等工程方法对生成的类自然语言中的价值冲突和伦理争议进行校准,这或许是缓解担忧的出路之一。因此,无论是生成式人工智能的语料采集,还是模型算法本身,都必须高度关注其政治方向、舆论导向和价值取向问题,可以给大语

31、言模型提供更多的解释性,修正 AI 的价值观偏见、知识成见。13同时,也需要重新思考社会信用体系的建立和印证,防止个人将自身行为动机投置于没有自主意识的机器,防止用户进行恶意的提示注入(prompt injection)。人类在与机器的交流中,既要祛魅理解机器的运行方式,也要赋能掌握机器的使用方式,在了解人类自己的过程中进化,在生成式人工智能及其产品的应用日益普及的趋势下,坚持健康的意识形态立场和价值观。4.重构人的主体性ChatGPT的出现改变了众多行业的内容生产方式,也给学界、业界带来了社会焦虑。从在线客服、内容创作、语言翻译到教育辅导,ChatGPT 不仅有潜力提高内容生产效率,解放人类

32、生产力,还可能为更多领域的创新探索提供基础。14在一些自由度较高的电子游戏中,如骑马与砍杀 2,其开发者将 GPT3.5 作为插件植入,非玩家角色(NPC)可以依照玩家们所打出来的字进行实时反馈,这种新的聊天模式既符合游戏主题与情节发展,也可以让整个游戏环境变得生动起来。在这个过程中,创作者对游戏故事叙事的完全控制减弱,游戏玩家参与情节可能增多。其作为创作者和游玩体验者的主体性都发生了变化。从 GPT3.5到4.0,再到不断增多的对话式人工智能插件(如购票、订餐等),生成式人工智能应用的个性化与智能化会在实践中不断升级,更强的语境理解与情感互动能力得以显现。然而焦虑也随之而来。从 PGC、UG

33、C 到 AIGC,人与机器的主客体关系处于动态变化之中,从助理协作式的语法修改工具 Grammarly 到独立原创的ChatGPT,工作效率的提升促使生成式人工智能成为社会热点,但也引发了学界、业界对自身劳动被代替的焦虑、对人类生存不确定性的反思、对人类智慧和创造力精度特性的怀疑。其在任务完成精度、对所有任务的共识、参与注释成本的低廉、提高文本分类的效率等方面,都显示了大型语言的潜力。况且,智能技术的发展速度远超于人类个体学习积累的能力,自动化的知识生成在大规模地取代人类重复性劳动的同时,对同等质量和价值工作的提供并不及时。OpenAI在其报告GPTs are GPTs:An Early Lo

34、ok at the Labor Market Impact Potential of Large Language Models中提到,ChatGPT 和未来用该程序构建的软件工具至少可以影响美国约 19%的工作岗位所执行的 50%的任务。同时,80%的美国劳动力会发现,其至少 10%的工作任务在某种程度上受到 ChatGPT 的影响。技术的进步和社会表达的焦虑本质上是对人类自身主体性的担忧。具有尖端脑力与技术的科学家及技术人员阶层的技术,取代部分可替代的工作,将一定人群的贫富差距加大,阶层也更加固化,在经济、社会、政治、伦理等多个层面对劳动者进行“减权”与“剥夺”。使人感到自身价值和意义的“

35、创造”本身,以及由此延伸出的被需要和不可替代的成就感,也逐渐被为生专题12产而生产的工具性“进化”所消解。值得思考的是,ChatGPT 的训练数据集受限于时间点,它所生成的文本时效在一定程度上是对人类创造性劳动的降维。此外,不同阶层因生成式人工智能所产生差距的不仅在物质层面,悄悄涌现的第三道“数字鸿沟”“驯化沟”也冲击着用户之间的平等表达。在新科技的发展中,处于主导地位的阶层掌握着更多话语权。所谓“驯化沟”是指个体在驯化数字技术为我所用、保持与数字技术理性关系方面的差异。有学者将“驯化沟”分为两个不同的维度“智联鸿沟”和“断连鸿沟”,前者关注个体如何更加智慧地使用数字技术方面的差异,经济社会地

36、位不同的个体对技术拥有不同程度的为我所用的能力;随着互联网的纵深发展,后者关注个体处于“永久在线”时,因大量信息的涌入而产生的信息过载、焦虑情绪等现象,个体在与数字技术保持较为合理的距离、更加克制地使用数字技术、防止过度连接等方面差异明显。“驯化沟”所意味的数字不平等在认知、情感、行为等方面影响着人们对自身主体性的发挥,较为薄弱的一环也存在将生成式人工智能视为知识和道德权威的风险,缺乏对错误、拼接和编造的内容的批判性思考,甚至将其简单地视为教育、医疗等专业领域的百科全书,知识错误和不准确所造成的危害因此蔓延。自动化生成知识在工作中无限度的使用,让人类智能越来越机器化,使人的自主性在潜移默化中被

37、忘却;社会关系网络中对人机互动的过度依赖,使真实的社会交往被干扰,这将带来技术和人的双面异化。对于生成式人工智能的超前忧虑,人们或许可以主动明确新型劳动种类所创造的机会,在新的传播技术所带来的选择权、自由权、使用权中激发新的创造力。结语在社会智能化发展中,作为媒介的生成式人工智能正在利用自身强大算力、触达力及适应性,在形塑人们的认知方面产生不容忽视的影响,并伴生相关风险。生成式人工智能通过为用户信息提供生产资源与技术支持,促使传播权力进一步下沉,在刺激社会性内容创作大爆发的同时夹杂着虚假信息;机器价值循环中涉及污染语料、道德敏感度设置模糊与算法不可见都会造成偏见传播扩散;技术的应用对日常生活领

38、域的深入,逐渐淡化了人们作为主体的参与感。因此,生成式人工智能在社会认知层面的影响应受到关注并值得警惕,如何在借助技术提高生产工作准确度与效率的同时保持理性与思维活力、拥有针对算法的辨别逻辑、培养具有自主创新精神的社会,是迎接智能化未来的应有之义。参考文献 1Du,H.Y.,Li,Z.H.,Niyato,D.,Kang,J.W.,Xiong,Z.H.,Shen,X.M.,&Kim,D.I.(2023).Enabling AI-generated content(AIGC)services in wireless edge networksEB/OL.2023-01-09/2023-06-22.

39、2 陈永伟.超越 ChatGPT:生成式 AI 的机遇、风险与挑战 J.山东大学学报(哲学社会科学版),2023(3):127-143.3Bengio Y,Ducharme R,and Vincent P.“A Neural Probabilistic Language Model”J.Advances in Neural Information Processing Systems,2000:932-938.4 李艳红,刘佳诺.人们为什么相信假新闻:对“假新闻信念”的认知心理学解释 J.新闻界,2022(8):14-26.5 易纯.媒体价值观的偏移与重构 D.湘潭:湘潭大学,2008.6 侯

40、增文,葛铁梅.中西方媒体价值观新闻传播差异 J.吉林师范大学学报(人文社会科学版),2019(1):77-87.7 赵龙.主体性危机与对策:人工智能时代人类何以自处J.理论导刊,2023(5):88-95.8 Mauel CastellsCommunication PowerMOxford University Press,2009:53.9 唐俊.对媒介进化论的再认识:基于感知和权力的双重维度兼论Web3.0媒介的平权结构J.新闻界,2023(1):47-56.10 梁清源.一种基于预训练模型的数据库操作代码生成模块的设计与实现 D.北京:北京大学,2022.11 喻国明,苏健威.生成式人工

41、智能浪潮下的传播革命与媒介生态从 ChatGPT 到全面智能化时代的未来 J.新疆师范大学学报(哲学社会科学版),2023(5):81-90.12Krgel,S.,Ostermaier,A.&Uhl,M.ChatGPTs inconsistent moral advice influences usersjudgment.Sci Rep,2023.13 系好“安全带”,生成式人工智能才会更好发展 EB/OL.http:/ 沈阳,ChatGPT.智能对话新篇章ChatGPT 的探索与未来 J.传媒论坛,2023(6):3.13专题15 唐荣堂,童兵.“传播即权力”:网络社会语境下的“传播力”理论

42、批判 J.南京社会科学,2018(11):109-114+143.16 李海峰,王炜.生成式人工智能时代的学生作业设计与评价 J.开放教育研究,2023(3):31-39.17 邓万春.曼纽尔卡斯特的网络社会与权力理论 J.国际社会科学杂志(中文版),2022(3):137-148+11.18 喻国明,滕文强,郅慧.ChatGPT 浪潮下媒介生态系统演化的再认知基于自组织涌现范式的分析 J.新闻与写作,2023(4):5-14.19 卢宇,余京蕾,陈鹏鹤,李沐云.生成式人工智能的教育应用与展望以 ChatGPT 系统为例 J.中国远程教育,2023(4):24-31+51.20 陈永伟.超越

43、ChatGPT:生成式 AI 的机遇、风险与挑战 J.山东大学学报(哲学社会科学版),2023(4):127-143.21 杨俊蕾.ChatGPT:生成式 AI 对弈“苏格拉底之问”J.上海师范大学学报(哲学社会科学版),2023(2):14-21.22 段伟文.积极应对 ChatGPT 的伦理挑战 N.中国社会科学报,2023-03-07.23 黄楚新,陈伊高.ChatGPT:开启通用型人工智能的数字交往 J.中国传媒科技,2023(2):159-160.24 汤代禄.人工智能大规模语言模型的运行逻辑与传媒应对 J.中国传媒科技,2023(2):19-24.25 韦 路:深 度 数 字 化 时 代,数 字 鸿 沟 概 念 体 系建构 EB/OL.https:/

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服