收藏 分销(赏)

数字智能时代人工智能暴力化及其规制.pdf

上传人:自信****多点 文档编号:720248 上传时间:2024-02-22 格式:PDF 页数:6 大小:1.32MB
下载 相关 举报
数字智能时代人工智能暴力化及其规制.pdf_第1页
第1页 / 共6页
数字智能时代人工智能暴力化及其规制.pdf_第2页
第2页 / 共6页
数字智能时代人工智能暴力化及其规制.pdf_第3页
第3页 / 共6页
亲,该文档总共6页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、人工智能作为数字智能时代的科技产物,能高效推动社会发展和更好地增进人类福祉。但技术的研发与应用有“善”也有“恶”,是一把双刃剑,人工智能的暴力化呈现是人类社会必须重视的问题。从人的暴力意向和人工智能自身的性质出发,我们发现,人工智能原生性暴力化问题主要呈现为“数据暴力”和“算法暴力”,而由人工智能广泛运用导致的次生性暴力化问题则呈现为“价值暴力”。顺应数字智能时代浪潮,察明新式暴力的形式与性质,对人工智能的开发端、应用端及监管端进行理性的法律规范和必要的道德约束,是规制或消弭人工智能暴力化的应有之义。关键词 数字智能时代;人工智能;暴力化;规制中图分类号 B82 文献标识码 A文章编号 167

2、3-0755(2023)02-0048-06DOI:10.13967/ki.nhxb.2023.0025 第三次工业革命的兴起,揭开了数字智能时代的序幕。人工智能作为数字智能时代的重要产物,推进了人类社会的数字化、智能化进程,使得人类的生活与生产方式、认知和行为模式等在自身的数字智能实践中得以重构。它一方面高效推动了人类社会的发展,另一方面也更好地增进了人类的福祉。随着资本、政治等力量持续渗透到人工智能的研发和运用中,人工智能得以飞速发展,但同时也引发了暴力化问题,主要体现在两个方面:其一,部分主体将人工智能视为暴力的新载体,通过其数据与算法对他人施加暴力,甚至算法本身成为一种武器,导致新的战

3、争暴力。此为人工智能的原生性暴力化问题。其二,人工智能的不当运用导致人的消费价值观异化,对诚信等主流价值观造成冲击,并催生各类虚无主义,由此给人类社会带来了“价值暴力”。此为人工智能的次生性暴力化问题。对人工智能的暴力化进行反思、归纳与应对,是人顺应数字智能时代发展潮流、把握数字智能技术发展机遇的重要议题。一 数字智能时代人工智能的原生性暴力化呈现:数据暴力和算法暴力“暴力”一词在哲学、政治学领域中通常被视为“社会建构”的结果,是由技术、政治组织形式、内外部环境、实践等各方面协同作用的产物1。黑格尔认为,暴力是某种能动性的自我超越,是绝对精神运动的必经过程,甚至于“没有诉诸这种暴力的人不是一个

4、强意义上的人”2。马克思在德意志意识形态中认为资产阶级对无产阶级的建构性暴力是“一种统治我们、不受我们控制、使我们的愿望不能实现并使我们的打算落空的物质力量”。他还指出,暴力指代的是主客体间的一种交往关系,是主体在一定权力关系下对“力量”(Kraft)的运用3。斯拉沃热齐泽克也深刻指出:暴力反映的是主体间权力关系的变迁,技术推动了暴力的发展4。可见,哲学层面上的“暴力”更多时候指的是主体对于客体的超越性或支配性关系,它并非一种单纯的物质力量,也不完全等同于物理意义上的压制与强迫,亦超出了血腥行为本身的内涵5。而在现代各种新兴技术的推动下,暴力早已脱离传统意义上的物质性暴力范畴,产生了更多精神性

5、的新型暴力形式。从结构构成上看,暴力主要由施暴者、承受者与承载体构成。其中,暴力承载体主要包括叙事模式和承载工具。后现代主义奠基人让-弗朗索瓦利奥塔(Jean-Francois Lyotard)认为,任何暴力的使用都必须借助“科学”的叙事模式来使其变得合法化,并以此实现对暴力权力的垄断。当然,任何暴力想要产生实质性的影响,除了依赖叙事模式的合理性之外,还需具备一定的物质基础,这就是暴力承载工具。正如汉娜阿伦特(Hannah Arendt)所言:“暴力总是需要工具”6,而人工智能的革命性发展产生了人们所未能意识到的新暴力,人工智能既是这种新暴力的承载工具,也是新暴力的施暴代理者和施暴者。人工智能

6、的核心构成是数据和算法,从人的暴力意向和人工智能自身的性质出发,我们发现,人工智能原生性暴力化问题主要呈现为数据暴力和算法暴力。(一)数据暴力“当数据网络深度嵌入社会生产生活之后,暴力的组织要素、控制模式、沟通机制和后勤体系都发生了数据化转型,数据暴力作为一种从未出现过的新暴力样态顺势而生。”7数据暴力的施暴者是数据控制者和数据本身,承受者是数据所有者,承载体是数据。传统的暴力形式遵循物质逻辑,是现实的物与物之间的碰撞,其表现是对暴力承受者进行物理性损害,结果是该承受者的机体受到一定损伤。数据暴力则遵循数字智能逻辑,通过数据施加一定程度上的无实体的暴力,其主要表现是通过对网络数据的非法采集、垄

7、断和交易等造成对网络秩序的破坏,并严重侵犯现实社会中人的相关权利。一方面,数据暴力来源于对数据的非法采集与垄断。数据是数字平台的根本生产要素,其采集的数据越多,对自身发展的优势也就越大,因此越来越多的数字平台试图通过各种手段来获取各种数据,比如收集网民的在线购物行为数据、社交网络上的个人数据与浏览器中的搜索数据等。悄无声息中,数据所有者的数据所有权与控制权便被剥夺。数字平台对数据的疯狂搜集还可能导致数据垄断的情况,即大量数据被掌握在某一数字平台之中,数据无法进行流通,数字平台则倚仗其垄断地位进一步蚕食用户的未被开发数据。此种暴力行为阻碍了数据的流通,违背了市场公平交易原则,导致了对用户与人类社

8、会的利益损害,在一定程度上阻碍了网络空间和数字经济的健康有序发展。当然,这类问题已受到相关机构的关注。2019 年,欧盟委员会(Euro-pean Union Commission)正式宣布对电商巨头亚马逊(Amazon)启动反垄断调查,以评估亚马逊使用在其平台上的独立零售商数据时是否违反欧盟竞争法。同年,德国反垄断机构 联邦卡特尔办公室(Federal Cartel Office)裁定,认为脸书(Facebook)滥用其市场支配地位,在用户不知情或“非自由”同意的情况下通过 API 等方式从第三方网站搜集用户信息。另一方面,数据暴力来源于数据泄露。随着人工智能的不断发展,越来越多的数据被非法

9、公开或交易,泄露问题不断增多。数据泄露的原因主要有两个:技术上的漏洞和数据控制者的故意泄露。由于技术上的漏洞,黑客极其容易对数据库和人工智能系统等进行攻击,以获取敏感数据。比如,2022年 2 月,Security Affairs 网站披露,LockBit 勒索软件团伙声称从 PayBito 加密货币交易所盗取了大量客户数据并进行了交易。此次网络攻击中,该勒索软件团伙成功窃取一个数据库,其中包含来自全球约10 万多名客户的个人数据信息。同年 6 月,土耳其航空公司飞马航空(Pegasus Airlines)也发生了性质极为严重的数据泄露,原因是其 AWS 云存储桶未受保护,该存储桶拥有将近 2

10、 300 万个文件,总计约6.5TB 的数据,其中超过 320 万个文件包含敏感飞行数据。除此之外,数据控制者出于利益的驱使有意将所收集的数据非法提供给第三方,而第三方在利益的驱使下,又利用所掌握的数据对目标群体进行定向推送,以影响目标群体的决策和选择。数据泄露导致的暴力对平台和用户的数据安全造成严重威胁,不仅侵犯了用户的数据隐私、损害了数据所有者的切身利益,甚至还威胁到数据所有者的人身安全与财产安全。(二)算法暴力算法是人工智能的三大基石之一,是“一种有限、确定、有效并适合用计算机程序来实现的解决问题的方法,是计算机科学的基础”8,具备自主学习能力的“人工智能深度算法”使“人类正在进入一切皆

11、可计算的时代”9。然而,“技术上最伟大的胜利与最大的灾难几乎并列”10,由于自身技术的缺陷和不完善及人类对算法的操控,算法最终导致了暴力的出现。从算法的信息获取与算法所导致的后果来看,算法暴力主要有算法黑箱导致的认知暴力、算法歧视导致的决策暴力以及算法加持导致的战争暴力。首先,算法黑箱导致认知暴力。黑箱通常是一种隐喻,指的是“为人不知的、既不能打开又不能从外部直接观察其内部状态的系统”11,算法黑箱指的是算法运行的某个阶段所涉及的技术非常复杂且绝大部分人无法理解或得到解释。一方面,绝大多数人并不清楚算法的运行过程,算法本身亦具有不可解释性,人们在算法的运作下获取的信息良莠不齐,可能还会收到其并

12、不想接收的信息,这些有意强94第 2 期简小烜,张睿谦,刘凡璠:数字智能时代人工智能暴力化及其规制加的信息会损害人的信息选择权,并影响和改变人的认知,形成了认知暴力。另一方面,部分人工智能企业利用公众的不知情,通过算法来干扰公众的认知。现阶段人工智能算法的研发设计大部分是非公开的,算法透明度缺失,使得人工智能企业能轻易地做到利用算法来干扰公众的正常认知,或者操纵公众的信息选择和认知,以实现其不良意图。比如,在政治领域中,算法利用大众对于结构化数据及规则的盲目和无知来操纵选民舆论,这严重损害了选民的认知权利。其次,算法歧视导致决策暴力。人类在设计和研发各类算法时,可能会将自身的喜好、目的、价值判

13、断等无意识地移植到算法中去,“多项研究均显示,软件产品具有隐蔽性的特征,特定的权力结构、价值观和意识形态已经事先被嵌入其中”12,而算法在运行过程中会按照设计者的“预定”目标来不断生成新指令及完成特定的指示和目标,如果研发者的价值观念本身带有歧视与偏见,便会导致算法的歧视与偏见,并产生决策歧视与偏见,最终导致决策暴力的发生。另外,有意的歧视可能会被嵌入算法之中,正如拉胡尔巴尔加瓦(Rahul Bargawa)所说:“算法没有偏见,我们有。”究其实质,算法歧视来源于人和社会的歧视,是社会中客观存在的各类价值偏见在虚拟世界的反映与呈现。比如用谷歌(Google)搜索“看起来工作不专业的发型”时,搜

14、索结果的图片大多是一头卷发的黑人女性。相反,如果搜索“看起来工作专业的发型”时,搜索结果的图片几乎清一色是金发的白人女性13。这就是一种将歧视嵌入算法的操作,这一行为的出现,主要源于美国的“白人至上”主义,但也证实了算法歧视的本质是社会价值取向上的偏见与歧视,最终导致某一特定群体受到非公正的对待。最后,算法加持导致战争暴力。在人工智能算法的加持下,传统的物理武器可以升级成智能化武器,加剧了战争的残酷性。并且,算法本身成为了武器,导致新的战争暴力。一方面,人工智能算法通过改变武器形态、作战手段等,使物理战日益智能化。在技术的推动下,从长矛、弓箭的冷兵器时代到枪支、火炮的热兵器时代,武器的性能与威

15、力一直在提高。到了数字智能时代,在算法的塑造下,产生了“具有指挥高效化、打击精确化、操作自动化、行为智能化等特点的人工智能武器可以有意识地寻找、辨别需要打击的目标,它同时具有辨别自然语言的能力,是一种会思考的武器系统”14。总之,算法赋予武器装备和作战样式等以新的内容和形式,带来了新的战争暴力形态 智能战。“人与人之间的互相伤害”可能变成“人机大战”,甚至只是“机器人之间的相互杀戮”15。另一方面,算法本身成为挑起战争的手段与武器,带来了网络空间武器化的发展趋向,导致激烈的算法战。黑客通过攻击算法就可以使军事作战系统、政府网络瘫痪,破坏关键基础设施的运作,窃取部门或设施的重要数据。“算法战”预

16、示着未来战争的变革,谁能抢占智能算法制高点,谁就能抢占先机16。比如在乌克兰危机中,五角大楼使用人工智能,将俄军成千上万次炮击和地面进攻行动的所有路线、时间、打击方式、打击精度和攻击位置等数据全部输入电脑,通过算法计算出其行动规律、战斗习惯及指挥官的思维方式,乌军炮兵则通过算法提前瞄准目标,导致俄军伤亡居高不下,战争陷入胶着之势17。总之,无论是“智能战”还是“算法战”,本质上都是人工智能算法对传统战争模式塑形后的新型战争暴力。二 数字智能时代人工智能次生性暴力化呈现:价值暴力“价值暴力”是人工智能原生性暴力化的进一步延伸,指的是人工智能广泛运用在人的精神文化层面上所产生的暴力,这种暴力将人的

17、“本真”生活意义予以消解,人之“目的”被贬为“手段”,从而扭曲人的价值观念,损害人的主观能动性和主体性地位。马克思在18571858 年经济学手稿中指出,资本主义社会是一个“以物为本”的“虚幻共同体”,在这一“虚幻”的形式下,以货币为中心的物化逻辑将人与人的关系变成物与物的关系,货币的意义支配着人类社会生活的所有意义,在放大人们致富欲望的同时,也摧毁着人对精神层面的思索与追求。随着新兴技术的飞速发展和普及应用,人类已经跨入数字智能时代,人被“物化”的现象不但并未消解,反而在人工智能技术和数字资本主义的“联姻”下迅速扩散和裂变,并“焕发”出新的“活力”,有的人甚至开始成为被人工智能力量支配的客体

18、。德国社会学家哈特穆特罗萨(Hartmut Rosa)提出了“加速社会”概念,认为科学技术进步带来的财富增长进一步导致社会变迁和生活节奏变快,人们被自己创造的现代社会所“要挟”与“绑架”,造成人们与过往的时间、空间、物、自身和社会等的疏离与异化,这种异化已由商品生产拓展到价值实现、商品分配和消费环节,并扩散至经济、政治、文化、社会生活和生态环境等领域18。“加速社会”中,在物化、异化等现象的“挟持”下,加之人工智能的力量支配,部05 南华大学学报(社会科学版)2023 年分主体的价值观开始畸形和异化。具体来看,人工智能广泛运用对人类社会造成的“价值暴力”主要体现在如下几个方面:其一,人工智能不

19、当运用导致部分个体的消费价值观异化。人工智能技术与数字资本主义的“联姻”推动了资本逻辑的进一步传播与扩散,消费主义、享乐主义有了新的滋生土壤,个体的消费欲望走向消费异化,在一定程度上扭曲了部分个体的消费价值观。消费异化是指人的消费活动从满足个体的自我需要转变成对物的依赖,物的交换属性使消费活动成了人自身的异己力量或敌对力量,它是人工智能所致价值暴力的重要体现。一方面,人工智能利用自身的内在机制、特征和功能不断裹挟与操纵消费者为自身的消费欲望买单,主要表现为淘宝、京东等大型网络购物通过人工智能算法对用户提供个性化的商品推荐与服务;另一方面,线上互动与娱乐活动利用人工智能刺激了人的消费欲望,如“网

20、红直播带货”利用智能技术的参与使消费活动更具互动性、娱乐性、感受性,消费者往往在亢奋的消费氛围中购买了自己并不需要的物品。对消费者的“精确”引导使其消费观念受到严重影响,这既造成了资源的浪费,又使部分人沉浸在一种“娱乐至死”的境地中。其二,人工智能滥用对诚信等主流价值观造成冲击。“诚信”的本义是诚实守信,反对一切弄虚作假行为,但随着人工智能的不断发展,人对于“诚信”的追求成本已呈上升态势。相关法律法规的缺失、巨大的线上利益以及犯罪的惩罚后果较轻等问题不断挑战着人在诚信方面的底线。“私自收集人脸数据”“违法售卖个人简历”“换脸技术层出不穷”“新闻报道以假乱真”“智能设备藏诈骗陷阱”“搜索引擎仍存

21、营销猫腻”等现象表明,功利主义价值取向不断向传统的价值标准与道德准则发起冲击,“以利至上”取代“以义至上”成为部分人的新交往原则19。人工智能在赋予社会以“现代”之名的同时,也在某种程度上刺激和加剧着部分主体对诚信等社会主义核心价值观的疏离或抛弃。其三,人工智能的快速发展与广泛应用催生各类虚无主义。虚无主义一词源于弗里德里希H.雅可比(Friedrich H.Jacobi)写给费希特的一封信,意为“客观世界的消解和失落”,后来尼采提出“上帝已死”的观点,以“最高价值的自行贬黜。没有目标,就没有对目的的回答”20界定了虚无主义的内涵。虚无主义的形式是多样的,从不同的维度(例如道德、文化等)出发可

22、定义不同种类的虚无主义类型。人工智能运用引发的第一类虚无主义是历史虚无主义,表现在对历史的虚构。人工智能通过自身智能程序、算法等对历史进行选择性解读与组合,甚至进行歪曲与篡改,用虚假的“真实史料”来混淆视听,导致部分个体尤其是青少年对历史史实的认知发生不当转向,最终导致历史虚无主义现象的产生。第二类则是价值虚无主义。从 AlphaGo 到ChatGPT、从赛博格到机器人战士,无不体现着人工智能的巨大威力,于是,在有些人看来“上帝已死”,人工智能则取代人成了新的“上帝”。他们过于相信人工智能,相信人工智能在任何方面都胜于人类,有人甚至愿意将自己的自主权交于人工智能,这导致其自主性的丧失。自主性丧

23、失使得他们的存在虚无化与荒谬化,但他们却享受成为被服务的客体,最终他们可能无法感受到自身作为“人”的价值,从而产生价值虚无主义。同时,由于人工智能“自主性”“意向性”的不断提升使得人与人工智能的差距在不断缩小,人的人格、尊严和作为“万物之灵”的主体性地位受到挑战,“人是什么”这个问题更是受到挑战21。三 数字智能时代人工智能暴力化的规制路径在人工智能种种暴力化的影响下,社会基础结构和社会治理体系都或多或少地被形塑与重构。须指出的是,人工智能所引发的暴力化问题,如“数据暴力”“算法暴力”,乃至“价值暴力”等,都体现出数字智能时代与农业时代、早期工业时代中暴力内涵与形式的异质性。人工智能的暴力化问

24、题不仅是一种传统意义上的物理压制,更是一种主体对客体的“力量”支配。虽然人工智能带来了暴力,但我们不能因此就排斥和拒绝人工智能,正如马克思主义所启示 历史的发展潮流不可阻挡,新事物必将取缔旧事物,因此对卢德主义(Luddism)的扬弃是理所应当之事。那么,如何规制人工智能的暴力化呢?这需要我们在人工智能开发、应用和监管的全过程中探索应对方案。(一)提升人工智能开发端的规范水准由于人工智能不具备自我意识和自由意志,无法承担“被问责”的追溯性道德责任22,而人工智能研发主体自身的专业技术水平、道德认知、道德实践和责任意识等,都会对人工智能是否走向“暴力化”具有重要影响,因此,化解人工智能暴力化问题

25、,研发主体是关键和前提因素。研发主体需立足以人为本的根本立场,强化自身的道德、法律意识,对人工智能进行相应的价值审视和道德设计,以及一切可能的预期风险评估,以尽可能地消除人工智15第 2 期简小烜,张睿谦,刘凡璠:数字智能时代人工智能暴力化及其规制能的暴力化趋向。一方面,人工智能研发主体应树立“负责任创新”(BRI)理念并运用到实践中。“BRI”理念最早由德国学者 Tomas Hellstrm 提出,他认为“BRI”可以建立在更广泛、更普遍的技术发展背景下,并且可对系统创新进行技术和管理的风险评估。“负责任创新”强调要尽量预判与考虑人工智能行为的后果并最大程度地减少造成伤害的可能性,即尽力减少

26、可预见的不良事件与影响。而研发主体一旦真正秉持“负责任创新理念”,将对研发过程中提前识别、预防或规避人工智能所带来的暴力化风险大有裨益。另一方面,研发主体还应加强数据安全管理,保障数据在开发、存储和传输过程中的风险防范能力;尽量获取和输入全面、准确的数据,并定期进行安全评估,同时采用高强度的加密算法确保数据存储环境的安全可靠;在对数据进行分类时,将敏感数据和非敏感数据进行区分,且采取严格的安全措施来保护敏感数据;建立一套有效的数据备份和恢复机制,以防止数据泄露导致数据丢失。(二)提高人工智能应用端的规范认知和使用如前所述,人工智能的交互性、开放性、娱乐性等特点容易引起人的消费观念扭曲和异化,甚

27、至可能对人的内心和认知进行深度的改造与重构,使人成为各种形式的“虚无主义者”。爱因斯坦曾指出,“如何利用它,到底是为人们带来幸福还是祸患,这由使用者所决定,并非由工具所决定”23。因此,要提升人对人工智能的认知并规范其使用,构建和谐有序的人机关系。一方面,使用主体应严格按照操作规范正确使用人工智能。使用主体作为最终端的接触者,分为科研使用者、工业生产使用者和日常消费使用者等,但无论是哪一种使用者,都应严格遵守操作规范。由于人工智能是根据人的指令来行事,且一部分人工智能(如最近大火的 ChatGPT)的决策与行为的功效高度依赖于指令的“清晰度”,因此,人工智能的使用主体需要加强自己指令的透明性与

28、可解释性,确保人工智能输出的稳定可靠,避免因人工智能对指令产生理解上的歧义而给社会带来不良后果。如果因使用不当等导致数据泄露,应及时采取行动、尽快挽回损失并进行严格追责,尽可能消除数据泄露带来的次生灾害。另一方面,在对社会价值的引导上,管理主体应高度重视人工智能价值暴力的意识形态效应,大力推进人工智能的道德设计,推动构建数字智能时代的良好数字秩序。应宣传人工智能并非万能的思想,将人工智能视为工具和手段,大力弘扬人的主观能动性和创造精神,使人树立数字智能时代“主人翁”的正确意识;引导使用主体加强学习,自觉了解人工智能常识和科技伦理知识,自觉抵制消费异化、科技异化等带来的不良影响,正确、合理地利用

29、科学技术来满足自身“数字智能需求”。(三)强化人工智能监管端的规范力度随着人机融合智能的出现,人工智能可能越来越拥有“人”的特质,这对其监管方式提出了更高的要求,因此,需与时俱进建立健全相关法律体系,保障人工智能的合理研发与应用。首先,应制定或完善相关法律法规。在界定清楚暴力行为的基础上,应制定专门约束人工智能暴力行为的法规和标准,填补和完善此立法方向的空白。政府应完善人机融合智能的相关法律政策体系,制定人机融合的技术标准来规避可能出现的伦理风险,并进一步明确人工智能的责任机制、伦理原则及监管原则,为规制提供原则性和方向性指引,保证规制的稳定性和权威性24。其次,应加强伦理规制。加强前瞻性(预

30、防性)伦理的建设,完善前瞻性伦理制度,建立算法可解释性评估与审查等制度;充分发挥伦理委员会的作用,加强人工智能技术伦理标准的设立和伦理评估审查力度;设立相关道德标准、划定道德红线,规范数据搜集、处理与交易、算法研发与运用等行为。最后,建立健全监管机制。对可能产生暴力的人工智能进行严格的审查和监管,及时发现和解决可能产生的问题;积极探索各类监管创新机制(如监管沙箱等),为人工智能的技术研发、测试和验证提供稳定可靠的实验环境,及时监管和预防可能发生的风险;严格要求算法推荐服务提供者在互联网信息服务算法备案系统填报相关信息,并建立全面的“事前事中事后”监管机制。事前,应对风险进行有效评估并及时管控;

31、事中,应对问题产品进行及时召回并进行有效监督;事后,应及时要求研发主体解决技术缺陷,并进行反思与总结,共享风险数据等。人工智能作为一项全球性技术,其影响绝不仅限于某一领域或某个国家,而是与整个人类社会的“数字化智能化发展”和人类自身的“数字化智能化生存”息息相关。因此,规制和消解人工智能暴力化问题,各国还需立足于共商共建共享的全球治理观,在人类命运共同体理念下摒弃隔阂、协同合作,加强人工智能国际治理,推动人工智能更好地为人类社会发展服务。我国应积极融入人工智能国际治理,积极参与人工智能国际标准和规则的制定,为人工智能国际治理贡献中国方案和中国智慧。25 南华大学学报(社会科学版)2023 年注

32、释:所谓“意向性”,是指一种指向、关于、涉及或者表征事物状态和对象的心智状态,它既意味者意识构造客体的能力,也意味着意识指向客体的能力。参见吴国林:技术哲学研究,华南理工大学出版社,2019 年版,第 1 页。“卢德主义”是指对新技术和新事物的一种盲目、冲动的反抗,在本文中暗指人们对人工智能的一味拒斥。参考文献1 LEVY J S,THOMPSON W R.The Arc of War:Origins,escalation,and transformationM.Chicago:University ofChicago Press,2011:54.2 法亚历山大科耶夫.黑格尔导读M.姜志辉,译

33、.南京:译林出版社,2005:477.3 KARL MARX,FRIEDRICH ENGLS.Karl Marx,FriedrichEngls Werke:Band 3M.Berlin:Dietz Verlag,1978.4 斯洛文尼亚斯拉沃热齐泽克.暴力:六个侧面的反思M.唐 健,张嘉荣,译.北京:中国法制出版社,2012:63.5 吴奕澎.从“暴力”到“胜力”:后现象学视域下军事技术的本质探究J.东北大学学报(社会科学版),2021(1):9-17.6 美汉娜阿伦特.共和的危机M.郑辟瑞,译.上海:上海人民出版社,2013:79-80.7 李立敏.新技术革命与“数据暴力”的诞生J.中央社会

34、主义学院学报,2019(6):26-34.8 美罗伯特塞奇威克,美凯文韦恩.算法M.谢路云,译.北京:人民邮电出版社,2012:6.9徐 恪,李 沁.算法统治世界:智能经济的隐形秩序M.北京:清华大学出版社,2017:323.10 瑞士汉斯昆.世界伦理构想M.周 艺,译.北京:生活读书新知三联书店,2002:16.11 陶迎春.技术中的知识问题:技术黑箱J.科协论坛(下半月),2008(7):54-55.12 张淑玲.破解黑箱:智媒时代的算法权力规制与透明实现机制J.中国出版,2018(7):49-53.13 汪怀君,汝绪华.人工智能算法歧视及其治理J.科学技术哲学研究,2020,37(2):

35、101-106.14 郑 戈.算法的法律与法律的算法J.中国法律评论,2018(2):66-85.15 董青岭.新战争伦理:规范和约束致命性自主武器系统J.国际观察,2018(4):51-66.16 曾华锋,刘轶丹,等.当代军事技术哲学新论M.北京:金城出版社,2021:23417 网易号.美军助乌克兰打算法战争 俄国在克里米亚部 署 核 武 EB/OL.(2023-01-07)2023-04-07.https:/ DAVID HARVEY.Universal Alienation and the RealSubsumption of Daily Life under Capital:A Re

36、sponse toHardt and Negri J.Open Access Journal for a GlobalSustainable Information Society,2018,16(2):449-453.19 易小明.道德评价标准的人我分离现象剖析J.齐鲁学刊,2019(6):66-75.20 德尼 采.权力意志:重估一切价值的尝试M.张念东,凌素心,译.北京:商务印书馆,1991.21 孙伟平.人工智能与人的“新异化”J.中国社会科学,2020(12):119-137;202-203.22 简小烜.人工智能体作为有限道德代理者的道德责任J.伦理学研究,2022(6):124-

37、132.23 阿尔伯特爱因斯坦.爱因斯坦文集:第3 卷M.许良英,等译.北京:商务印书馆,1979:78.24 马长山.人工智能的社会风险及其法律规制J.法律科学(西北政法大学学报),2018,36(6):47-55.The Violence of Artificial Intelligence in the Era of Digital Intelligence and its regulationJIAN Xiaoxuan,ZHANG Ruiqian,LIU Fanfan(Changsha University,Changsha 410022,China)Abstract:As a tec

38、hnological product in the era of digital intelligence,artificial intelligence can effectively promote social devel-opment and better improve human well-being.However,the research and development and application of technology have“good”and“evil”,which is a double-edged sword.The violent presentation

39、of artificial intelligence is an issue that human society must pay atten-tion to.Starting from peoples violent intentions and the nature of artificial intelligence itself,we find that the problem of native violenceof artificial intelligence is mainly presented as“data violence”and“algorithm violence

40、”,while the problem of secondary violencecaused by the widespread use of artificial intelligence is presented as“value violence”.Conforming to the wave of the digital intelli-gence era,discovering the form and nature of new violence,and carrying out rational legal norms and necessary moral constraints on thedevelopment,application and supervision of artificial intelligence are the proper means of regulating or eliminating the violence of artifi-cial intelligence.Key words:digital intelligence era;artificial intelligence;violence;regulation(本文编辑:刘衍永)35第 2 期简小烜,张睿谦,刘凡璠:数字智能时代人工智能暴力化及其规制

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签
资源标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服