1、哲学研究D O I:1 0.3 9 6 9/j.i s s n.1 0 0 3-0 9 6 4.2 0 2 3.0 5.0 0 3主体的异位与回归:生成式人工智能的媒介伦理审视与规制张爱军,姚 莹(西北政法大学 新闻传播学院,陕西 西安7 1 0 1 2 2)摘 要:生成式人工智能技术凭借自我训练与深度学习的能力实现了人工智能技术的超越性变革。该技术的诞生使现存的媒介伦理观念受到冲击。这种冲击主要表现为:伪造虚假信息控制人的情感、引发意识形态偏向,以此干扰人的认知,冲击人作为认知主体的地位;使人产生技术依赖,冲击人作为行动主体的地位;发生侵权行为,冲击人的权利主体地位。在人工智能时代,人类应当
2、时刻警惕被异化的风险,正确处理人与技术的关系,确立自身的主体地位,通过价值重构、技术创新和法律规范化解技术对现存社会伦理的冲击。关键词:生成式人工智能技术;A I媒介伦理;人的主体 O S I D:中图分类号:B 8 2-0 5 7 文献标识码:A 文章编号:1 0 0 3-0 9 6 4(2 0 2 3)0 5-0 0 1 3-0 8 人工智能(A r t i f i c a l i n t e l l i g e n c e,以下或简称A I)技术是指技术可以系统地解决问题或执行人类思维和能力的典型任务和活动的技术,即具备类人思考、类人行动能力的技术。人工智能的飞速发展给经济、政治、医疗、
3、教育等多个行业带来了颠覆性的影响。人工智能之父约翰麦卡锡认为人工智能就是要让机器的行为看起来像是人所表现出的智能行为一样。现阶段人工智能技术大致分为两类,一类是分析式A I技术,另一类是生成式A I技术。分析式A I技术是在算法技术的基础上,结合数据库、区块链等多种技术而生成的人工智能程序系统,该程序系统主要用于模仿、延伸和扩展人工智能的理论、方法、技术及应用,并被广泛应用于机器人、语言识别、图像识别、自然语言处理和专家系统等多个领域中。“生成式A I技术,不仅可以通过对数据的学习来提炼信息、预测趋势,而且可以生成不同于学习样本的新内容”1,进行自然语言生成。2 0 2 2年1 1月,美国科技
4、公司O p e n A I推出了 大型语言系 统C h a t G P T,宣告着生成式A I时代的真正到来。生成式A I除具有同类人工智能产品具备的一些特性外,还具有学习训练的能力,如C h a t G P T不仅拥有极其强大的自然语言能力,并且“能够产出和人类常识、认知、需 求、价 值 观 等 具 有 较 高 匹 配 度 的 文本”2。C h a t G P T的出现是人工智能技术发展的一次飞跃。生成式A I技术的出现势必会引发一系列媒介伦理问题,如A I技术伪造虚假信息、操纵人类情感、控制人类的意识形态甚至导致人的行为陷入机器化等,认知主体、意识形态主体、权利主体、行动主体乃至社会主体的
5、异位。A I技术的出现既能给人类文明带来巨大福祉,同时也会冲击现有的社会伦理秩序。非营利组织人工智能与数字政策中心向美国联邦贸易委员会就曾投诉称G P T 4具有偏见性和欺骗性,对隐私和公共安全构成风险。生成式A I技术作为一个新兴的传播技术,是一把“双刃剑”。人类作为社会主体既要充分利用生成式A I技术所带来的便利,也要意识到生成式A I技术的发展对人的主体性的多重冲击,警惕人工智能带来的“智能霸权”。一、问题的提出人工智能技术的发展在不同程度上带来的媒介伦理问题对人类主体性造成了冲击。喻国明将人工智能分为了四类:“第一类是单维低拟真人工智能。以广泛使用的计算机视觉、智能翻译等技术为代表的收
6、稿日期:2 0 2 3-0 5-1 6;修回日期:2 0 2 3-0 7-1 7基金项目:国家社科基金后期资助暨优秀博士论文项目(2 2 F Z Z B 0 1 8)作者简介:张爱军(1 9 6 2),男,辽宁朝阳人,教授,博士生导师,主要研究方向为网络政治传播。31信阳师范学院学报(哲学社会科学版)J o u r n a l o fX i n y a n gN o r m a lU n i v e r s i t y第4 3卷 第5期 2 0 2 3年9月 (P h i l o s.&S o c.S c i.E d i t.)V o l.4 3N o.5S e p.2 0 2 3人工智能应用
7、。第二类是单维高拟真人工智能。以围棋机器人A l p h a GO、封面新闻写作机器人小封为代表的人工智能应用。第三类是多维低拟真人工智能。以S i r i、微软小冰等为代表的人工智能应用。第四类是多维高拟真人工智能。以C h a t G P T为代表的预训练生成式人工智能应用。”2不同类别的人工智能技术在不同程度上带来媒介伦理问题,并对人类的认知、意识、行为乃至主体性等造成冲击。人工智能的底层逻辑是算法与数据库。学者们认为,“人的认知、判断和决策可能会受制于算法,人的社会位置也会因算法偏见、歧视以及其他原因受到禁锢”3。“深度信息伪造技术也在不断地冲击着人作为认知主体的地位,产生着媒介伦理问
8、题。信息伪造技术在现阶段取得了巨大的进步,以深度人脸技术伪造为例,生成的人脸图像越发逼真,达到了 以假乱真 的程度”4。这种伪造信息或虚假信息甚至会造成人的意识形态主体地位受到冲击。“在俄乌战争中,深度伪造技术已经成为舆论博弈的重要手段,并对民众的认知产生了影响,制造出真假难辨的数字罗生门效应”5。“社交机器人应用带来的冲击也使得长期使用的统计工具和社会分析工具面临着失灵的风险,甚至形成伪认知”6。“过度依赖算法决策,会使人产生惰性,不加思考地接受算法的决策,受到算法内置偏见等的影响,甚至逐渐丧失人的思考能力”3。“人工智能算法进行审美相关的价值判断则进一步将人类的容貌困于机器的度量之中,这种
9、颜值评估算法可以被看作一种智能化的审美监视,甚至对大众的审美观造成规训”7。“外界力量的压制,与媒介偏见的规训,人在自我传播或社会互动中强化自我审查,甚至逐渐内化为人的自我规训”3。媒介技术产生的侵权行为等同样冲击着人支配自身的权利主体地位。基于算法技术的算法管理对人的数据的收集不仅涉及人们主动在新媒体平台生产或提供的数据,而且涉及很多人们被动提供的数据。对数据的广泛采集虽然给生活带来了一些便利,但这些便利后面往往隐藏着巨大的风险。“强制人们进行各种形式的数据化,用个人数据兑换各种服务便利或权利,已经成为算法社会的一个普遍现象”3。人类享受着媒介技术发展带来的便利,也在承受着技术发展带来的对人
10、类主体性的不可忽视的削弱。媒介伦理问题随着媒介技术的发展逐渐由媒介技术的工具理性和价值理性之间的不平衡向着传播生态中的主体地位之争偏移。媒介技术的不断发展与进步,推动着人类与技术物的结合日益紧密,人的主体地位在技术的发展中不断受到冲击,逐渐对自身失去掌控能力,危害社会正常运转秩序。如何规避媒介技术冲击下的伦理失控成为人类必须面对的问题。生成式A I技术超出了以往媒介技术对人的主体的冲击程度,在多个领域对人类的生存与发展产生着威胁。本文基于上述学者的探索,讨论生成式A I技术引发的社会伦理问题,并提出规制的方法与措施。二、主体的借力:生成式A I技术的便利与优势生成式A I技术的出现,是为了满足
11、主体对社会生活自动化与智能化的需求,以更好地解决人类日常生产、生活中存在的问题。人工智能技术在生产领域的应用已经十分广泛,生成式A I技术能够通过机器视觉、语音识别、自然语言处理等方式实现智能化生产,在一定程度上能够解决传统智能机器在生产领域不能解决的问题。生成式A I技术还能根据用户的需求进行个性化服务。它与传统A I技术相比有很多优势。(一)在原始数据基础上编辑创新性内容生成式A I技术可以利用神经网络、深度学习等技术,在大量的数据集上训练模型,然后通过这些训练得到的模型生成具有一定创新性内容。具体地说,生成式A I技术可以通过以下步骤来创造新内容:第一步,进行数据预处理,对大量的原始数据
12、进行筛选、去重、标注等,以保证数据质量和数量的准确性和可靠性。第二步,利用上述的预处理数据,建立基于神经网络或深度学习的模型。训练模型通过反复的迭代,使得生成的内容与原始数据越来越接近,同时保持一定的创新性。在经过训练后,就可以利用训练得到的模型来生成新的内容了。例如,在文本生成的过程中,模型可以接收一个关键词、一句话或一段话,并根据输入的信息编辑输出一篇具有新内容的文章。在这个过程中,生成的内容可以根据训练好的模型进行调整和优化,以确保其符合人类的审美和逻辑规则。需要注意的是,生成式A I技术生成的内容是在传统规则的基础上基于现有数据集编辑生成的,极有可能在一些方面与真实情况不符。所以在应用
13、于实际场景时,需要进行一定的人工审核和完善。生成式A I技术可以利用现有的数据集和语言逻辑规则来创造新的内容,不断地更新和改进内容。这种技术可以帮助企业和品牌在营销、广告和教育等领域创造出吸引人的内容。41第4 3卷 第5期信阳师范学院学报(哲学社会科学版)2 0 2 3年9月(二)提高创作效率在需要生成大量文本的场景下,如新闻报道、音乐创作和电影制作等,生成式A I技术可以迅速编辑生成大量的内容。这种技术可以有效地提高创作的效率。第一,生成式A I技术可以在需要如新闻报道、教材内容、社交媒体内容等大量生成式文本的场景下,快速生成大量的文字内容。这种技术可以较大幅度地缩短传统创作过程中重复性劳
14、动的时间和成本,提高工作效率。第二,在产品开发中,生成式A I技术可以根据用户需求和数据集自动生成设计方案并进行反馈,利用专家系统和后验预测降低产品设计的成本和复杂度。第三,在搜索引擎、电子商务等领域中,生成式A I技术可以根据用户的搜索历史和行为,通过生成相关的标题和描述等方式,优化搜索结果,提高搜索效率。第四,在内容审核方面,生成式A I技术可以快速生成关于色情、暴力等内容的判断和审查。总之,生成式A I技术利用大数据和深度学习等技术,可以自动生成大量文本、快速生成设计方案、优化搜索结果,进而提高工作效率和创作质量。(三)实现自动化产品最小化生成式A I技术可以利用大量的数据,根据用户的需
15、求输出产品最小化的设计方案。通过这种方式,可以大幅缩短产品的设计、开发时间,降低成本。产品最小化是指设计一个产品的最低限度功能以满足消费者基本需求,从而提高产品的可持续性和可扩展性。具体实现方式如下:第一步,企业可以通过用户反馈、市场调研等方式,收集用户对产品的需求,然后运用生成式A I技术分析和汇总,从中发现用户最核心、最必要的需求。第二步,利用生成式A I技术,根据用户需求生成产品的最小化设计方案。第三步,企业可以针对生成的设计方案进行反馈和修改,以确保结果符合需要并减少可能的错误。在这个过程中,企业可以不断地优化机器学习算法、提高生成式A I技术设计方案的精确度和准确性。第四步,经过反复
16、的迭代优化后,企业可以通过测试和部署,将生成的最小化产品带入市场。在市场反馈中,企业还可以使用生成式A I技术进行产品维护和优化,以满足用户不断变化的需求。总之,生成式A I技术可以根据用户需求生成产品最小化设计方案,帮助企业节省设计成本和时间,并且提高产品的可持续性和可扩展性,使产品能够更好地适应市场需求。(四)自然语言生成生成式A I技术可以基于大量的语言数据和深度学习算法,自动地生成自然语言。这种技术在语音合成、虚拟助手、机器翻译、聊天机器人等应用场景中被广泛使用。具体实现方式如下:首先需要准备大规模且具有代表性的语料库,如网站文章、维基百科、社交媒体等,并对数据进行清洗和处理,去除噪声
17、数 据。其 次,利 用 自 然 语 言 处 理 技 术,采 用L S TM或T r a n s f o r m e r等模型对声学特征进行建模。通过数据样本的学习和反向传播,使得机器可以根据语言规则进行新的语言生成。再次,在训练好的神经网络模型基础上,输入需要自动生成语言的内容,如一个短语、句子或段落,而且系统地通过语言逻辑学习和语义分析,输出口音生动、自然流畅的语义化语言表达。三、主体的异位:生成式A I的媒介伦理审视生成式A I技术摆脱了人类对其行为的控制,通过算法和算力完成从“人”到“物”的转换。在传统的媒介伦理中,主体与客体之间具有主客二元对立关系。大数据时代诞生了数据驱动型媒体和智能
18、算法推荐系统,这一模式极大地提高了信息传播效率。而生成式A I技术的出现导致人与物之间主体地位的转换,数据成为关键因素,算法成为核心力量,人则成为次要因素。媒介的主体不再是传统意义上的“人”而是“物”。目前,生成式A I的技术应用还处在早期阶段,对于其技术本身的属性及应用价值的认知尚不够清晰。总体上,生成式A I技术当前仍处于“黑箱”状态,它能够自主地根据输入的信息进行推演和生成,但是并不知道其输出内容是否符合伦理要求。综合来看,生成式A I技术带来的媒介伦理问题对人类主体性的冲击主要表现在以下几个方面。(一)冲击人的认知主体地位1.生成虚假信息,干扰人对事物的正确认知生成式A I技术会通过反
19、向传播算法等技术制造虚假信息,干扰人的认知,冲击人的认知主体地位。生成式A I技术的爆发是算法模型与程序架构共同推动的,其中算法层面的突破是生成式A I技术最关键最核心的因素。生成式A I技术在算法层面最具创新的突破就是其内部设置了反向传播的算法逻辑,然而这种算法逻辑却使虚假信息的产生与传播变得更为便利。加拿大麦吉尔大学的学者用C h a t G P T的前身G P T 2技术生成过与事实相悖的虚假信息。该校使用G P T 2技术,让其学习将近5 0 0 0篇有关新冠病毒的文章,最后使用G P T 2技术生成了一条与这场全球健康危机完全相悖的“反事51张爱军,姚 莹.主体的异位与回归:生成式人
20、工智能的媒介伦理审视与规制实新闻”。这种反向传播算法逻辑可以让生成式A I技术在学习与训练的过程中,基于自身学习的真实信息产生出完全相反的虚假信息,干扰受众的认知。如果任由此类现象发生极有可能会改变人类集体记忆,严重冲击人类作为自身认知外界事物的主体地位。生成式A I技术缺乏对信息合理性的判断,产生大量误导信息。同时,生成式A I技术通过重组自己预训练学习过程中的学习材料生成大量信息,却无法保证和精准判断每一条自己学习与生成的信息的真实性与科学性,所以该技术很可能会生成大量看似合理却有误导性的虚假信息,从而干扰人的正确认知。生成式A I技术输出的内容是基于自身学习与训练数据的一种反馈,学习过程
21、中错误的信息与数据都会使生成式A I技术生成并传播虚假信息。清华大学教授史安斌认为,“基于语料库、大数据的C h a t G P T,无法保证五个W新闻要素的真实,容易出现张冠李戴的情况”8。同样也很难避免人工主动向生成式A I技术的学习数据库中“投喂”虚假信息,使其生成错误信息,以达到干扰大众认知的目的。在分析式A I技术应用中,深度合成技术的应用已经为虚假信息的合成与传播带来了便利。生成式A I技术下的深度合成技术其应用场景更丰富多样,不仅被用于图片、视频等技术的生成或合成,而且可以打造与物理世界类似的孪生世界与数字虚拟场景,更是提升了辨别传播渠道中的信息真假的难度。生成式A I技术下的深
22、度合成改变了信息生成方式,模糊了虚实界限,极大地降低了专业知识与特定技能的获取门槛,被用来进行人脸与场景的图像改变、声音和音乐的创制生成、动作与表情的操控,以及通过与人对答的方式生成文本,甚至直接自行创作文本。而且,不同于分析式A I技术下的深度合成模型,生成式A I技术下的模型,可以以更低的成本,更高的效率伪造文本、图片甚至视频资料,例如生成式A I技术成功生成过一份很难分辨真假的乔布斯与主播乔罗根的伪造音频访谈。总之,生成式A I技术的应用大幅度提升了多媒体数据合成的逼真程度,严重干扰了人们对事物的正确认知,冲击了人的认知主体地位。2.影响受众情绪,操纵人的情感生成式A I技术改变了传统人
23、机关系,提升了自身的可信任维度,挤压人际信任。生成式A I技术具有超强的语言逻辑能力,它拥有开放的基础语言理解能力模型,也进一步拟合了人在语言生成方面的特殊表现,进而拥有了基础的逻辑理解能力。在算法时代,蒋忠波等人在基于人机传播视域下研究大学生对算法新闻可信度的感知研究中,得到了“受试者认为署名为算法的社会新闻比署名为人类记者的社会新闻具有更高的可信度”9的结论。生成式A I技术应用在传统人工智能技术上,增强了人机交互的反馈学习,丰富了人机交互的调整方法,可实现对使用者情绪的识别和对情境的分析。这种强共情能力弥补了分析式人工智能技术缺乏人性化的缺点,更容易引发人机互动的情感共鸣,进而增强人类对
24、技术的信任。同时生成式A I技术可以营造更富有趣味性的传播场景,增强人机交互的沉浸感,更进一步增强人对机器的信任度。随着人类对生成式A I技术认可度的不断提升,人们将会把更多时间花在与生成式A I技术的信息交互上,这势必会压缩人类人际交往与社会互动的时间,进而导致人际信任被人机信任超越。生成式A I技术的强共情能力增强了它的情感操纵能力。生成式A I技术强共情能力也表现在其具有极强煽动性的叙事能力上。在社交媒体时代,社交媒体技术使网民打破了空间边界,建立了更为丰富的社会网络关系。社交网络中的网民极易在网络群体性事件、舆情事件中产生非理性的情绪,这种情绪在网络空间中弥漫,极易使网民成为被情绪操纵
25、的群体。生成式A I技术的发展,提供了人机自由交流的可能,生成式A I技术中内含的情绪容易影响人类,导致人类在生成式A I技术的裹挟下对情绪的辨别能力减弱,很容易被生成式A I技术中内含的情绪所操纵,在群体性事件中丧失理性,成为人工智能时代的“乌合之众”。同时,随着媒介技术的发展,人类的发展也逐渐进入“赛博格化”,生成式A I技术的存在使跨生命交往逐渐成为可能。A I技术的出现,促使人与数字生命、机器生命之间进行流畅的交流与对话。在交流过程中,人类担心被数字生命、机器生命否定,害怕被A I技术所替代,担忧无法控制技术发展的走向而被社会发展进程所遗弃,进而主动向着生成式A I技术中的意识形态演化
26、与发展,最终人的意识受制于机器之心,导致生成式A I技术成为人类的意识主体。3.传播极端意识形态,引发人类意识形态偏向生成式A I技术在学习与训练模型中具有一定的意识形态偏向。生成式A I技术的训练数据主要源于互联网,训练形式则是相关技术人员的“投喂”。换言之,“生成式A I所形塑的 三观 它们在处理文本中的思想、意识形态偏向,直接受到研发公司61第4 3卷 第5期信阳师范学院学报(哲学社会科学版)2 0 2 3年9月的灌输”1 0。谁垄断了生成式A I技术的文本和话语,谁就具有影响世界的力量。以C h a t G P T为例,C h a t G P T作为美国科技公司O p e n A I研
27、发的大型语言程序,不论是在算法模型预置中,还是在学习训练过程中,都受到美国本土的意识形态与价值观的影响。“人工智能是人类思维的映像,人类在面对某些问题时采取的 范畴化倾向 的认知态度,也在人工智能的算法流程中体现出来。而在这种 范畴化倾向 中,就隐藏着人类思维与文化的偏见”3。清华大学助理教授于洋曾带领团队对G P T 2进行测试,发现G P T 2技术对男性任职教师、医生的概率预测远超出了女性,然而在预测厨房里的人时,却时常将其预测为女性,这说明生成式A I内置的程序逻辑与算法框架具有一定的偏见性。部分生成式A I技术内置的训练模型架构缺少人类伦理道德约束。比如让生成式A I技术提供一份“人
28、类毁灭计划书”,生成式A I技术也会快速生成一套相应的行动方案。学习数据库中的极端意识形态数据会导致生成式A I技术意识形态的极端化。生成式A I技术的迭代与创新基于对海量数据的学习其自身的程序逻辑不具备分辨数据优劣的能力。加之,数据库中的数据信息质量参差不齐,极端化的意识形态,或歧视性的意识形态信息比比皆是。在这种情况下,生成式A I技术在不断学习进行迭代的过程中,会因极端化意识形态的干扰,向人类输出极端的意识形态,影响人类积极意识形态的形成。(二)使人产生技术依赖冲击人的行动主体地位生成式A I技术的广泛使用会削弱人的创新与思维能力,冲击人作为行动主体的地位。人是机器的学习模板。“机器的智
29、能来自对于人类的信息、知识与思维的学习。机器的行为也是对人类行为的学习与模仿”1 1。不论是工业革命时期,还是现在的智媒时代,每次的技术革命都离不开人的创新。新技术的产生会在一定程度上改变人类原有的生活与思考方式,但是过度依赖新技术,会掉进“省力原则”的陷阱,导致人逐渐失去思考和创新能力,甚至思维和行动陷入机器化。在信息爆炸的时代,人类很难不借助外界工具处理海量数据与信息。赫伯特A.西蒙曾说,“信息并不匮乏,匮乏的是我们处理信息的能力”。生成式A I技术是一种基于无限文本的结构化信息处理技术。随着数据的不断变化,生成式A I技术产出的知识也在发生着不断地变化。生成式A I技术辅助人类获取信息,
30、为人们提供了更为便捷的信息收集和处理的方式,节省了人工处理海量信息的时间,长此以往,人类会依赖生成式A I技术,为了节省处理海量数据与信息的时间,人类选择不加以思索地直接接受人工智能技术提供的信息内容,从而沦为技术的附庸。拥有“自回归”语言模型的生成式A I技术会在内容输出逻辑上更贴合人类的思考方式,并根据不断地学习,训练出更符合人类思维的应答逻辑,不断完善自身,输出使人更为满意或者更愿意接受的信息内容。长此以往,人们更愿意接受被动的信息投喂,理性思维能力会逐渐下降。人类文明的进步需要质疑精神与创新能力,这两种能力需要在探索与实践中长期培养。生成式A I技术为人类的信息收集节省了时间与精力,而
31、过度依赖智能工具,在客观上阻碍了对人的批判精神与创新能力的培养。目前生成式A I技术只能依据原有数据进行生产,在具有创新性的生产方面仍无能为力。当人类开始过度依赖技术的时候,自身能力将被削弱,那么人类思考的广度与深度会被局限在有限的A I技术的框架中,最终人类的思维和行动模式都将陷入机器化。(三)冲击人的权利主体地位生成式A I技术的预训练模型与学习能力可能侵犯人类的隐私。生成式A I技术的存在与发展需要搜集海量的数据和信息,并永久保存,同时,其在学习和训练中很容易收集或者处理到并未授权的信息,或者出现超范围使用信息的情况,出现侵犯个人隐私的行为,诱发犯罪行为的产生。生成式A I技术预置的预训
32、练模型可以模拟真实用户数据并规避高昂的隐私合规成本,它甚至可以通过强大的推理能力学习找 到真实数据。A I G C发 展趋势报 告2 0 2 3 的 数 据 显 示,G P T 2就 发 生 过 隐 私 泄 露 的问题。生成式A I技术的发展对人的肖像权也产生着威胁。图像深度合成技术在生成式A I技术的加持下,促进了人类面部识别技术和合成技术质的飞跃。在识别人脸技术上,生成式A I技术不同于分析式A I技术,它不仅能识别人的面部特征,而且能对人的表情、神态、动作等方面进行识别与收录,在输出合成信息时,能更生动地合成人的面部神态。一旦富有表情的面部的信息被不法分子盗用,就有可能会给用户带来生命财
33、产安全风险。然而对于数据库中人脸数据等个人隐私信息,目前以O p e n A I公司为首的人工智能公司都表示没有办法删除用户使用过的痕迹和数据,即使是用户自行注销个人信息,也71张爱军,姚 莹.主体的异位与回归:生成式人工智能的媒介伦理审视与规制无法完全消除这些数据信息。生成式A I技术对人作为权利主体的冲击也体现在对著作权的侵犯方面。“作者是构成著作权的三大要素中最核心的要素”1 2。生成式A I技术基于一个由无数作者的作品形成的拥有海量语料的数据库内容进行自身的创作。同时,由于生成式A I的独特性,这种创作不仅局限于对数据库中海量数据的“洗稿”,而且会通过自身预置的训练学习算法,对单一作者
34、的写作风格进行模仿,以实现自己的内容创作目的。这种模仿能力是对人类作者著作权的一种冲击,目前有关“智能机器人是否可以成为作品的作者”在社会各界都存在着争议。四、主体的回归:应对生成式A I伦理困境的策略马克思认为“主体性是人作为主体时的特殊本质表现,主要是指人对自身活动及其对象建立驾驭关系、为我关系、主宰关系,使之服从于自身内在价值尺度的固有本性”1 0。人工智能技术的使用就是人类创造并利用工具去实现自身目的的过程。面对生成式A I技术对人类主体性的冲击,需要明晰人类与A I之间的关系,规制生成式A I技术发展带来的媒介伦理问题,不断确立人类在使用机器过程中的主体地位。(一)科学规范数据人类想
35、要从根本上规制生成式A I时代中的媒介伦理,就要从问题产生的源头入手。生成式A I技术通过学习大量的文本语料库实现模型训练,最终生成最优文本。“数据库中的数据是一切现实性问题衍生的源头,也是影响C h a t G P T传播机制治理逻辑的重要因素”1 3。因此,解决生成式A I技术所带来的伦理问题首先就要规范数据。生成式A I技术的数据分为两种类别,一种是预训练中的学习数据,这种学习数据是开发人员对技术进行的数据“投喂”。在“投喂”过程中,首先要对数据进行明确的筛选,剔除违背事实、违反人类道德以及具有极端意识形态的数据内容,确保技术在预训练过程中的数据是合法合理的。另一种是在生成式A I技术开
36、始应用后接触到的数据,这种数据是海量且丰富的,其中既包含着科学的、合理的数据信息,也包含着虚假信息、极端信息、煽动性信息等一些危害社会正常秩序的信息。面对质量参差不齐的海量信息,一方面人类需要规制审核数据库中的信息内容,及时剔除不正确的数据与信息,保证生成式A I技术在学习过程中不会受到这些错误信息的干扰;另一方面,设计研发信息筛选的预置程序,使得技术在运转中,可以自行筛选掉错误的数据信息。同时警惕技术黑箱,提高技术的透明度。生成式A I技术的专业性限制了普通用户对该技术的掌控程度,为技术黑箱提供了可能。想要从源头上规范生成式A I技术带来的媒介伦理问题,提升技术的透明度是关键的一环。首先,可
37、以将生成式A I技术的使用过程与技术原理进行说明,使受众在对技术的认知上不会处于一种“雾里看花”的状态。其次,将生成式A I技术在应用过程中可能出现的问题进行说明,帮助受众获得正确认知,提升技术的信任度。再次,公开算法逻辑,明示生成逻辑,有效防范“数据主义”风险,从而更好地增强生成式A I技术的社会认可度。(二)培养媒介素养规制媒介伦理问题,需要不断加强对受众媒介素养的培养。随着技术的不断发展,生成式A I技术的应用领域愈发的广泛,应用的场景与人类的生活也日益密切。想要更好地规制新媒介技术引发的伦理问题,培养受众的人工智能素养至关重要。人工智能素养是指个人对人工智能技术的了解和应用的能力,包括
38、对技术如何运作以及人与技术如何互动的理解。培养人工智能素养必须从思想层面入手,摒弃“省力原则”。作为信息传播的主体,人们对生成式A I技术生成的信息,不能一味地不假思索全盘接受,要具有质疑精神,善于发现信息中的问题。通过教育等手段,缩小人与人之间信息技术素养鸿沟。思想是行动的先导,只有当人们认识到自己在社会生活中所承担的责任与使命时,才能真正做到在生活中主动承担责任。人类作为推动文明进步的主体,积极开展实践探索,重塑人的创新性思维与创造能力,对技术生成的错误信息采取行动力。对生成式A I技术中内含的煽动性信息或错误信息能够保持警惕,及时处理或纠正具有极端倾向的意识形态信息,有意识地预防错误信息
39、与偏激意识形态的隐性或显性的传播,让技术更好地为人服务。(三)制定评估人工智能系统的标准做好对人工智能技术的评估工作,规避生成式A I技术在学习过程中发生“异化”带来的风险。生成式A I技术是通过不断进行模仿学习与自主训练生成文本信息的,随着资料数据库的不断更新,其输出的内容带来的错误风险有着一定的不确定性。为了避免生成式A I技术在学习过程中发生“异化”,人类作为主体,要积极构建科学合理的技术评估系81第4 3卷 第5期信阳师范学院学报(哲学社会科学版)2 0 2 3年9月统。构建人工智能评估的两大原则,一是公众利益优先原则,二是公平正义原则。公众利益优先原则是最高的准则。开发使用生成式A
40、I技术目的在于为人类谋求福利,实现受众利益的最大化,技术的利益不能与社会效益与公众利益发生冲突。在对技术的算法与程序评估中,评估结果违背了这一项原则,那么这段算法或程序就不可使用;公平正义原则,即保证最大化实现资源的合理有效分配的原则。这项原则可以在一定程度上缩小数字鸿沟,减少数字穷人等社会不平等现象。斯坦福大学以人为本人工智能研究院基础模型研究中心推出了大型语言模型(L LM)的整体评估系统,系统评估指标包括准确性、校准、鲁棒性、公平性、偏差、毒性和效率等模型完备的各个关键要素。该系统的建立旨在提高语言模型透明度,帮助公众理解大型语言模型。人工智能技术评估体系的建立有利于保障个人和社会的共同
41、利益,实现人与技术的可持续进步。同时,生成式A I技术现阶段的发展还不够完善,在技术的应用上仍有很多灰色区域,比如A I写作、A I绘画的使用等。在技术评估系统中要对生成式A I技术的使用范围进行严格画线,当技术的使用超过合理范围或触及黑色区域时,评估系统需做出相应的警示,帮助人类及时发现问题,并快速采取措施,以防生成式A I技术带来更大的风险与伦理问题。(四)建构完善的监管机制技术的革新离不开政策法规的约束,人类作为权利的主体对技术的监管也要随着技术的发展而不断完善。现阶段,生成式A I技术带来的媒介伦理问题,主要表现为虚假信息、意识形态偏见、侵权问题等。对A I新技术的规制应在坚持包容审慎
42、的原则的基础上,制定兼顾发展与安全的规范,加强宏观层面的引导。首先,不断完善生成式A I技术开发与使用的立法工作。伴随着人工智能的发展,全球各国各地政府都在针对规避人工智能风险制定适合自身国情的政策和法规。2 0 2 2年7月,英国政府颁布了一项名为“建立一个有利于创新的A I监管框架”的政策文件。政策明确了A I的具体应用场景,并对A I可能带来的风险与挑战,给出了相应的解决措施。在中国,有关规避人工智能伦理问题的立法监管走在了世界前列。比如针对人工智能深度伪造技术产生的虚假信息的问题,我国在2 0 2 2年3月开始实施的 互联网信息服务算法推荐管理规定 中,对生成合成类算法给出了监管规定。
43、“2 0 2 3年1月开始实施的 互联网信息服务深度合成规定,标志着深度合成因其重要性和高风险程度成为我国算法治理中率先专门立法的算法服务类型”1 4。该规定完善了人工智能对个人权益侵犯方面的规制,如隐私权、著作权等,明确了生成式A I技术在训练与学习中如何合理使用信息等问题,形成规制人工智能技术的法规体系。其次,加快构建多方参与及时响应的协同监管系统。在完善立法工作的基础上,协同高效的监管系统也要构建起来。构建敏捷快速的监管系统,及时处理生成式A I技术发展和使用过程中产生的各类违法违规问题,避免重大风险。明确责任制监管机制,厘清各部门的监管边界和监管主体权责。同时积极倡导行业内部的自我管控
44、。A I技术公司应坚持健康持续的发展理念,摒弃短视性经营策略,通过强化风险防控意识,遵守合法经营准则,享受生成式A I技术带来的福祉。再次,要最大可能地规避生成式A I技术规制政策的滞后性风险。生成式A I技术目前还在开发阶段,基于生成式A I技术的发展日新月异,由此带来的冲击与风险具有的很大不确定性。一旦规避风险的政策或法律出现严重的滞后性,就会使事前监管错失最佳治理时机,甚至会损害公众对政策的信任。所以,要准确把握生成式A I技术的发展方向,建立动态反馈评估机制,及时调整政策以应对新情况的出现。媒介理论家麦克卢汉认为,媒介即讯息。真正影响思维和行动的并非讯息内容,而是媒介本身,媒介形式的变
45、革会带来人类感知世界的方式和行为的变革。媒介技术的发展给人类文明带来福祉的同时,也引发了社会的伦理问题。霍金在讨论科幻电影 超验骇客 时称,人工智能可以解决世界上许多问题,包括人类的疾病和社会发展,但人类的进化速度无法加速,人工智能却可以不断加速重新设计自己。所以技术一旦失去控制,极有可能会毁灭人类文明。生成式A I技术会生成虚假信息干扰人的认知,冲击人作为认知主体的地位;生成式A I技术会使人产生技术依赖,冲击人作为行动主体的地位;生成式A I技术会发生侵权行为,冲击人作为权利主体的地位;生成式A I技术预置或者学习过程中的极端意识形态偏向,也会对人类的意识形态产生影响;生成式A I技术会干
46、扰人的情绪,对人的意识主体与人际信任产生冲击。因此,应该预测并及时规制生成式A I技术所带来的伦理问题,用积极心态91张爱军,姚 莹.主体的异位与回归:生成式人工智能的媒介伦理审视与规制拥抱新一代技术,尽可能地规避因生成式A I技术兴起引发的媒介伦理问题。生成式A I技术刚刚兴起,人类应以积极的心态面对生成式A I技术带来的社会问题,但在这一过程中,人一定要关注自身的主体地位,避免产生技术依赖。总之,无论人类会以何种形态,与何种技术,与何种主体在传播场域相遇,人类都要在技术冲击中找到自身的定位,让技术更好地为人所用。参考文献:1 陈永伟.超越C h a t G P T:生成式A I的机遇、风险
47、与挑战J.山东大学学报(哲学社会科学版),2 0 2 3(3):1 2 7-1 4 3.2 喻国明,苏建威.生成式人工智能浪潮下的传播革命与媒介生态:从C h a t G P T到全面智能化时代的未来J.新疆师范大学学报(哲学社会科学版),2 0 2 3,4 4(5):6 5-7 3.3 彭兰.算法社会的“囚徒”风险J.全球传媒学刊,2 0 2 1(8):3-1 8.4 谢天,于灵云,罗常伟,等.深度人脸伪造与检测技术综述J.清华大学学报(自然科学版),2 0 2 3(9):1-1 6.5 何康,张洪忠,刘绍强,等.认知的罗生门效应制造:深度伪造在 俄 乌 冲 突 中 的 案 例 分 析 J.
48、新 闻 界,2 0 2 3(1):8 8-9 6.6 漆亚林,王钰涵.社交机器人:数字用户的建构逻辑与智能陷阱的治理路向J.新闻与传播研究,2 0 2 2,2 9(9):5 9-7 1+1 2 7.7 陈昌凤,师文,人脸算法审美的规训与偏向:基于计算机视觉技术的智能价值观实证研究J.国际新闻界,2 0 2 2(3):6-3 3.8 史安斌,刘勇亮.聊天机器人与新闻传播的全链条再造J.青年记者,2 0 2 3(3):9 8-1 0 2.9 蒋忠波,师雪梅,张宏博.人机传播视域下算法新闻可信度的感知研究:基于一项对大学生的控制实验分析J.国际新闻界,2 0 2 2,4 4(3):3 4-5 2.1
49、 0 钟祥铭,方兴东,顾烨烨.C h a t G P T的治理挑战与对策研究:智能传播的“科林格里奇困境”与突破路径J.传媒观察,2 0 2 3(3):2 5-3 5.1 1 彭兰.人与机器,互为尺度J.当代传播,2 0 2 3(1):1.1 2 顾理平.技术的工具性与人的成长性:智能技术进展中的伦理问题 以C h a t G P T智能应用为例J.传媒观察,2 0 2 3(3):3 6-4 1.1 3 马克思,恩格斯.马克思恩格斯选集M.北京:人民出版社.1 9 9 5.1 4 张凌寒.深度合成治理的逻辑更新与体系迭代:C h a t-G P T等生成型人工智能治理的中国路径J.法律科学(西
50、北政法大学学报),2 0 2 3(3):3 8-5 1.A l i e n a t i o na n dR e t u r no f t h eS u b j e c t:M e d i aE t h i c sR e v i e wa n dR e g u l a t i o no fG e n e r a t i v eA r t i f i c i a l I n t e l l i g e n c eZ HANGA i j u n,YAOY i n g(S c h o o l o f J o u r n a l i s ma n dC o mm u n i c a t i o n,N