收藏 分销(赏)

非社会的社会性:弥补人工智能责任缺口的一种纾困尝试.pdf

上传人:自信****多点 文档编号:3114374 上传时间:2024-06-18 格式:PDF 页数:5 大小:1.28MB
下载 相关 举报
非社会的社会性:弥补人工智能责任缺口的一种纾困尝试.pdf_第1页
第1页 / 共5页
非社会的社会性:弥补人工智能责任缺口的一种纾困尝试.pdf_第2页
第2页 / 共5页
非社会的社会性:弥补人工智能责任缺口的一种纾困尝试.pdf_第3页
第3页 / 共5页
亲,该文档总共5页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、非社会的社会性:弥补人工智能责任缺口的一种纾困尝试*栾云镪1摘要:人工智能(artificialintelligence,AI)的突破性发展为人类提供诸多便利,但技术的社会属性引发了医学、哲学、法学等学科领域对其道德责任缺口问题的深层隐忧,争议的核心是 AI 技术发展是否可控,AI 是否可以像人类一样具有能动性和体验性,如何提高 AI 的道德敏感度。“非社会的社会性”理论为弥补 AI 的道德缺口提供了一种纾困策略:将“人是目的”作为道德尺度,以人类自身责任主动把握智能技术伦理主动,重塑智能技术在人类社会中的限制条件,为引导其向负责任发展提供规范性道德指引。关键词:非社会性,社会性,人工智能,责

2、任,伦理边界,伦理规范中图分类号:R-05文献标识码:A文章编号:1002-0772(2024)09-0001-05DOI:10.12014/j.issn.1002-0772.2024.09.01Non-social Sociality:A Remedial Attempt to Address the Responsibility Gap in Artificial IntelligenceLUAN Yunqiang11.School of Marxism,Nanjing Normal University,Nanjing 210023,ChinaAbstract:Thebreakthrou

3、ghdevelopmentofartificialintelligence(AI)hasprovidedmanyconveniencesforhumanity,butthesocialattributesoftechnologyhaveraiseddeepconcernsinthefieldsofmedicine,philosophy,law,andotherdisciplinesaboutitsmoralresponsibilitygap.ThecoreofthecontroversyiswhetherthedevelopmentofAItechnologyiscontrollable,wh

4、etherAIcanhavethesameagencyandexperienceashumans,andhowtoimprovethemoralsensitivityofAI.Thetheoryofnon-socialsocialityprovidesaremedialstrategyforfillingthemoralgapinartificialintelligence:takinghumanbeingsasthepurpose as the moral scale,actively grasping the ethical initiative of intelligent techno

5、logy with human responsibility,reshapingtheconstraintsofintelligenttechnologyinhumansociety,andprovidingnormativemoralguidancetoguideitsresponsibledevelopment.Key Words:non-socialsociality,sociality,artificialintelligence,responsibility,ethicalboundaries,ethicalnorms1文献回顾与问题提出人工智能(artificialintellig

6、ence,AI)被广泛运用于各种医疗场景的同时,引发学界对 AI 是否承担道德责任以及是否存在责任缺口(responsibilitygap)等问题的隐忧,发展负责任的 AI 成为国际社会的一项共同愿景。AI 责任限定源于人对自我的认识,由此引发对科学技术的伦理限制。在技术产生以前,哲学家的探讨集中在人性本身。亚里士多德推崇沉思的生活,认为“人非完人”是道德发现的前提;康德1以“我能知道什么”“我应当做什么”“我可以希望什么”三组设问引发对“人是什么”2的关注,提出生命本身无价,人是目的而不是手段;利奥塔3强调道德之根本是美,“一切道德之道德,都将是审美的快感”;科尔伯格4提出道德的评价依据为单

7、纯思辨的认知判断,在思考中反思之;尼采5从生命意志的角度强调“某种生命体首先的意愿是释放它的力量生命本身就是权力的意志”。此后,哲学家把目光放在技术对人理性僭越的反思上,重新思考人与技术二者的关系。马克思韦伯对资本主义工业文明反思并揭露了现代性包含的种种冲突,认为现代性的根本属性在于合理性,合理性(作为技术手段的理性)被固化,人的理性丧失,沦为工具,任由自由意志摆布,造成现代性的牢笼。他认为裹挟技术外衣的技术对人的尊严的践踏是反理性的,唤醒被对象化和工具化的各种情势斗争,恢复人对神圣生命历程的自省,防止人的生命伦理异化,使人完成生命价值的理性复归;海德格尔6认为技术是一个“座架”,“座架意味着

8、对那种摆置的聚集,这种摆置促逼着人,使人以订造方式把现实当作持存物来解蔽”。“座架”是对技术崇拜时代的一种批判,迷恋崇拜技术,人显得无力而苍白,受命运胁迫。人受控技术操控则会失去自我判断力和自我鉴赏力,对自身无知无感,无法体察人间冷暖。海德格尔7认为技术既不是技术本身,也并非某种手段而是一种“去蔽”方式。个*基金项目:2020 年江苏高校哲学社会科学研究重大项目(2020SJZDA144);2022 年教育部高校思想政治工作中青年骨干队伍建设项目(2022SZGGDW05)1.南京师范大学马克思主义学院江苏南京210023作者简介:栾云镪(1996-),男,博士研究生,研究方向:思想政治教育哲

9、学、科技伦理。E-mail:专论医学与哲学 2024年 5月第 45卷第9期总第 740 期Medicine and Philosophy,May 2024,Vol.45,No.9,Total No.7401体的生命历程仅此一次,生命历程中的人要有思想就要回到实践,实现人的自我解放,对人本身重新认识,走出“原子式”发展路径。现代伦理学关注 AI 技术对人类自由意志的本体性影响8,因而复杂环境下的机器学习及其数据挖掘能力对 AI 的发展意义重大9,引入伦理责任限制使其具有伦理决策与社会帮辅功能10,有助于道德责任的变化和边界关系的重建11,以应对医学临床实践中不确定性的挑战。2AI 的控制弱化风

10、险与伦理缺憾时下,AI 在现代医疗领域被广泛运用,如居家养老、影像病理、精神心理、康复理疗、普通外科、妇产科、心胸外科、口腔科等。不过 AI 到底是物还是人、是否具有道德性成为学者争论的焦点12。学界有两种代表性观点:支持意见认为 AI 不具有自主选择性,AI 具有道德的假设不成立13,反对意见指出机器人如果可结合人类道德法则进行是非判断则具有道德性14,医疗实践中的 AI 与人类道德边界存在模糊性,AI 的兼容性与规范性的盲区给伦理监管带来潜在风险。2.1AI 的 医 疗 实 践 与 人 类 道 德 行 为 边 界 存 在 模 糊 性人是否对行为后果承担伦理责任是就行为在可控范围谈论的。传统

11、技术运用范围具有可控性,借助一定手段完成既定目标,行为后果是确定的,事件因果性也是可追溯的,即便当某个程序发生故障,也能在用户、监管人、工程师等群体中找到相应责任。随着 AI 的深入研发,人机交互、人机协同不断使人类的行动变成了一种基于 AI技术的“技术性行动”15,人类中的高智商者也基本无法与智能机器人匹敌。一是 AI 的普及正在撼动医生的主体性地位。执业医师做出专业诊断往往需要较长时间的学习积累,培养一名医学博士一般需要 8 年时间,AI 的迅捷诊疗意见只需短短几秒钟,20062016 年仅 10 年国内就已完成 40896 例达芬奇机器人手术16。英国一家智库公司称机器人未来可能取代近

12、25 万个岗位,推动就业结构的变革,每年可节省 26 亿英镑支出17。二是 AI 逻辑执行的模糊性。设计者(designer)的主体价值通过算法设计内嵌于 AI 的底层逻辑。AI 从研发到应用的行为后果具有多种因果链条,各自因果链条又会发生不同的“连锁反应”,参与者和应用场景具有较远的物理分隔,AI 的远距离效应模糊了行为和事件的直接因果线索,设计者可能无法了解该应用的隐性威胁和潜在用途,降低了行动的敏感性。若各种消极行为无法得到有效预测,便会引起人们对参与者是否负责任的非议。三是 AI 伦理监管的复杂性。具备深度学习的 AI 能够在运行过程自动调整参数,或许可以完全绕过人脑固有思维,越来越精

13、明而做出委托者意想不到的事情,“并不知道自己在做什么”18,形成“算法暗箱”(在输入和输出的答案间存在不为人知的决断过程,使数据难以观测,难以理解,无从下手)。AI 通过学习不断演化成的“新智能思维”模拟人的思维,达到人类无法触及的地带,形成新兴技术生命周期“峡谷”19。但人还不足以了解算法的内在机制,这种随机且不透明的决策过程会造成传统监督的失灵,特殊情况下还会演进为算法歧视20。错误或残缺的算法数据会引发医疗决策失误的风险,算法设计本身缺陷相较于临床诊断的失误可能更会令患者生命受到潜在威胁。AI 的交互作用是依赖虚拟空间的主客体互动关系进行的,这种互动通过不断增强的技术被实际构造出来21,

14、算法模型的失误可能影响交互的效果,当机器遭遇“他心”,会形成人机互动的神经机制,人机交互性意味着 AI 或者 ChatGPT 场域变成互动/相互作用“本体论”地先于“是”/存在“存在”22,社会认知会面临更多不确定性23,医疗技术有被秘密用于不合理医学试验的可能性,基因编辑婴儿事件是人为改变人类基因算法的例证。2.2AI 医疗实践的兼容性与规范性存在认知盲区现有法律对智能科技的监管依旧空缺,专家呼吁早日建立 AI 伦理审查和协同治理机制、完备的伦理守则以及可行的指导方略24。一是对 AI 的操作使用方面存在不同规范。不同 AI 之间的兼容性较差,对医疗 AI 监管的事后审查更多是一种补救,不足

15、以应对医疗算法的安全风险。Luxton25指出,将 AI 运用到卫生领域技术尚不成熟,对医疗机器人监管尚未成型,尤其是 AI 造成的隐私外泄无法对侵权主体进行精准责任认定及追责,造成 AI 责任逃逸。英国发生多起医疗机器人伤人事件,达芬奇机器人医疗纠纷在中国的裁判文书就有 10 多篇26。现实医疗场景的复杂性,即便专家也难以充分解释,美国也曾出现过医疗过程中机器人零部件掉入人体内部,失控、短路等情况。有研究指出一次手术过程由于机器故障,机器人操控台失灵信号没有及时反馈给主治医师,在手术关键一步,机器对患者的心脏缝合产生偏离,医生着急进行二次缝合,整个手术进程受到迟滞,由于手术中机器产生多次失误

16、,患者主动脉被 AI 意外切断,最后全力抢救患者,仍无力回天,令人痛惜27。可见,AI 的可靠性、适用性、隐私性等因素没有被完全考虑在内,但医疗危害一旦发生就不可逆转。二是机器与机器发生指令冲突时怎样根据已有规则确定优先性(priority)机制尚不明确。一个成人和一个幼童遭遇危险,现实中成人的生存可能远大于幼童。人类抉择一般是先救幼童再救成人,但 AI 仅仅依靠算法,推算成人的存活概率更大,可能抛下幼童救下成人。人的道德主体性体现在人的自我意识之中。尽管 AI 还没有形成自我意识,但在某些方面已经超越了人脑。机器人没有情感不懂人类感情,不过,当 AI 越来越自主和智能时,人类会失去更多对成品

17、的控制,设计者即便具有基本的控制能力,也未必能以这些能力或机器的深度学习灵活转变,故而增加了系统性行为的风险性,一旦产生错误,很难分清到底是设计失误、操作失误还是算法学习失误,智能技术学习自主性的增强某种意义上就是制造者实体控制力的弱化,直接非社会的社会性:弥补人工智能责任缺口的一种纾困尝试栾云镪医学与哲学 2024年 5月第 45卷第9期总第 740 期2Medicine and Philosophy,May 2024,Vol.45,No.9,Total No.740 或间接给道德主体的责任承担带来隐患。3非社会的社会性:构建 AI 的责任限度与伦理边界技术性责任问责困难在于尚未澄明技术发展

18、与责任的边界问题。“技术发展必然导致责任缺口”这种假设的前提是技术的发展有缺陷,技术的工具性决定技术的发展符合技术的内在逻辑和自然的规律性,但也受到经济、政治、法律、历史以及公众态度等各种社会事件的规制,塑造技术的力量是多方面的,远远超出技术本身的可行性,技术的责任问题并不是技术工具性生成逻辑的衍生,“特定的技术并不需要特定的责任安排”28,一系列社会因素会影响选择的选项,从而影响技术的内容和它们的社会影响29。康德30认为,人一方面具有社会化倾向,在与他人交往中认识到人不仅仅是自然人,另一方面又具有独立表达个体意志的道德倾向,这是人类历史逻辑的绽出,亦是自由理性发展的过程,实现这一过程的现实

19、手段是以人性为基础的,就是以人所具有的“非社会的社会性”。因此,发展负责任的智能技术就是要按照“人是目的”为最高伦理尺度,引导 AI 按照可控性方向发展,坚持合规律性和合目的性的统一,让责任权属棱角分明,促进技术更好为人类社会完善服务。3.1理性认识 AI 的技术上限人对未知的尝试是为了表达对确定性的承认,人的各种行动的企图(意图)不断满足将个人意愿限制在一致性方向31。当 AI 介入社会伦理关系时,技术的非确定性的前奏打断了人类探索自身确定性的节奏,AI 对责任问题的悬置,以及不断产生客体主体化倾向,用技术的有限性替换了人类解放的可能性,将人类置身于自身价值消解的旋涡中,阻隔确定性。作为面向

20、未来的技术手段,限定 AI的伦理边界,降低道德失范风险出现的可能性,纯洁地“生成我们的世界”32。AI 在特定领域可以无限,在强 AI 状态下,智能机器已完全具备不同情境下的“思考力”和“决策力”,Chat-GPT 已经可以从事代码、文案、海报等繁琐文字的撰写,可以进行复杂图片生成、智能对话、推理判断、比较合成、程序制作,但人类已有认知和实践界限规定智能技术尺度的边界是 AI 难以逾越的哲学高度,所有智能机器演算的基础、方法、价值判断都是“由人类预设立场提供的”33。AI 的工具属性限定了技术的使用域界,AI 可以改变社会的生产模式,却无法挣脱人类思维对它的限定34,只能被设计成遵守规则,却不

21、能理解规则更不能创造规则,而是站在“人”的立场对现实存在的责任伦理进行理性审度35。智能技术的域值为人类认知的符号化,取决于设计者输入其中的函数关系。AI 的深度学习将数据标记为起始点,开始搜索多种神经网络,通过程序化的参数优化,挖掘数据背后隐藏的逻辑关系,产生“输入识别反馈”的发现模型,一旦输入源终止,程序也就随之终止。AI 对于数据的挖掘路径并非像人那样的领悟,而是依据数理统计中函数变换规律实现运算赋值的,“智能技术可以战胜棋手,但难于理解每一步棋背后的动因”36。3.2深层追问 AI 的道德意识问题道即规律,德是遵循这种规律得到的某种结果,道德即为社会成员为取得某种相对普遍、一致合作而采

22、取的一种社会规范。道德是人类社会实践的产物,以人为唯一道德评价主体。AI 本质是非人亦是一种非道德的智能体,因此无法成为实施道德的行为责任主体。亚里士多德曾指出德性由风俗习惯沿袭而成,康德却表示德性不是长期练习得到的,主张颁布无条件绝对命令作为道德评价之法则。康德对于传统德性伦理的反驳为新的理解扫清障碍,旨在揭示德性内在意义。他以为德性的内在性是可靠性亦即纯粹性,义务的规定由纯粹先天地提出,德性义务是理性的授意或者按照意志的法则展开,意志的质料(目的)决定意志的法则(形式),不再是按照人身上所具有的某种品质而是以普遍性义务作为道德的伦理规范。在康德的语境下,道德主体具有内在意识才具有道德主体性

23、,胡塞尔认为主体内在拥有对客体的明辨以阐释主体性之观念,缺乏外部经验的人依旧可以获得对外部的感性理解,除了直觉人还有想象空间。“主体性”作为一种本体论概念,“始终是一种创造者而不仅仅是认识者”37。AI 是以数据的集合作为普遍质料进行逻辑运算,以数据的输入、运行、反馈为运算逻辑,追求数据排列组合的最优解,这种作业方式并非主体性作用的发挥而是作为主体性的随附物。道德生成具有社会性,处在年幼时期的人受到外在的价值指引产生对此种概念的或好或坏的感受,获得对此事物的概念,以此作为今后行动的依据。个体有别于他者,但本质上仍然是一切社会关系的总和,个体意识的生成来自个体到主体的社会化过程,最终以社会化质料

24、完成对个体意识的显示。AI 的普遍质料的数据是对人类经验的抽象,亦是对人类智慧的接收与转换,数据以数以万计的逻辑字符作为社会化的事实呈现,每一数据亦受社会化行为主体的价值规训,为 AI 的社会化道德规范提供道德质料,规制其发展路径。3.3寻找 AI 伦理构建的实践表达AI 的推广本质上是社会化过程,是社会系统和技术符号系统互构过程。社会系统给予 AI 一定社会角色,AI 想要完成完整的社会化,就要考虑社会复合因子的影响,按照社会所需的价值观和主流价值进行伦理语境转换,从非社会化到社会化。相容性和技术的发展速度往往呈正相关,就像价值观的变迁受技术引导那样,AI 的社会化改造也必须接受来自社会对它

25、的规训,实现在智能体功能的实践中,创建政府公共机构与 AI 技术良性互动的社会氛围,促进 AI 技术的社会化。AI 的社会化过程是接受道德规范的进程,数据作为AI 社会化的质料准备但无法像人一样学会如何换位思考,或者对数据自主选择某种道德偏向。对于机器而言,只需非社会的社会性:弥补人工智能责任缺口的一种纾困尝试栾云镪医学与哲学 2024年 5月第 45卷第9期总第 740 期Medicine and Philosophy,May 2024,Vol.45,No.9,Total No.7403要执行对数据的逻辑处理即为结束。道德法则是以人类普遍评价所拣选而来的,个体意志从社会意志中分出,受社会道德

26、法则支配,个体意志与社会意志相符合的道德规范才具有道德优先性,响应社会道德规范的个体意志才具有行动上的正当性,这种社会化过程也是主体自主性道德理念的生长养料。社会化道德规范以合作为基础,影响到个体子行为,AI 的数据质料应然以社会合作图景作为道德延展。即便 AI 无法拥有天然的道德主体性,却可以选择后天的道德主体性代表。通常认为算法设计者最有主体性代表权,可作为程序设计者代表的仅仅是算法中立的一方,只是从工具意义上为数据结构的重组提供逻辑最优解,因此 AI 的道德代表最有可能由其操作者执行,当智能机器被作为一种功用性器具投入使用时充当使用者的构成因,使用者的评价机制与机器的反馈机制产生协同性,

27、以指令的发出、接收、反馈、改进实现道德生成和道德进化。一旦 AI 实现社会化语境,就应与使用者一起完成构建,人和机器在交互中碰撞、磨合。实现价值不等于规划价值,使用者既可以遵循价值规划也可以发挥自主性,以预想的方式使用38,对其进行创造性的改造。运用语境下,AI 既能引导人实现价值规划,也能为人根据自身的价值诉求提供技术保证,帮助人按照自身诉求进行再设计,保持个体价值创造的独特性。终极价值指向是要让个体在实践中实现自身价值,创造出人的道德美学。AI 进入非社会的社会化的语境正是帮助人强化形成自身的价值实践的过程,形成能动改造客观物质世界的“实践能力”。AI 有完全理性的一面,也有缺乏激情、义务

28、等道德感性的一面,人类道德具有双重意象,理性慎思与朴素情感交织构成人的智慧性,规制 AI 的伦理规范也须回复人本身,这正是 AI 责任缺口的解决之道。可见,人既要保证自身人格独立精神独立,又要以审慎态度创立与 AI 对话的可能域,作为使用者的人类不仅要接受 AI 的指令规划,而且要对这种指令规划进行改写,实现自己的价值目标、处事方式、审美风格。一是强调医疗伦理中医生是道德主体,AI 只能作为辅助手段存在。患者需要“有真实情感和知觉的人”39,作为医术实施者,医生更应服务患者、安抚患者心理创伤,秉持保密性、价值中立性等伦理规范,在取得患者同意同时告知其相应伦理义务,避免因下达错误命令造成操作不当

29、。尽管机器是冰冷的,但医生的人文关怀却是温暖的。加强对患者的精神抚恤,注重以互动式关怀打破单向问诊思维定式,掌握沟通的节奏和艺术,疏导患者不良心理情绪,减弱医患双方对立情绪,把关爱摆在第一位40,保证医患关系处于和谐轨道。二是医疗行业从业者加强对 AI 效益的前瞻性研究和风险评估。“无过错责任原则”对设计缺陷和制造缺陷同样适用,为覆盖强制责任保险无法控制的侵权风险,有必要组件补偿基金执行赔偿以作为必要法律救济,进一步强化 AI 融入生命医疗中的安全管控,趋利避害,使伤害尽可能最小化。一线医生在使用 AI 前也应该充分了解设备运作风险,避免因不符合“医疗常规”标准造成医疗过失或导致达到诊疗标准却

30、未被投入使用的情况发生。三是在 AI 的实验推广阶段,需要人的积极参与来帮助塑造 AI 的类人化“价值意向”。AI 道德意识并非程序设计者的馈赠,而是与使用者在交互过程中通过或积极或消极的评价产生的,以数据化的方式呈现,但当 AI 通过纠正其负向反馈,优化正向意见时,数据整合会形成一种认知偏向,以成为 AI 社会化的合理道德规范。当 AI 被广泛运用到社会各领域参与公共事务治理的时候,要朝着建构一种合理、向善的社会化使用语境而努力,智能技术在使用中帮助使用者达到人性成熟的高度,保持旺盛活力,通过宽视域对话实现技术与价值彼此融洽、融会贯通41。4结语AI 普惠人类,也改变着人类和世界的存在性质,

31、改变了时空结构的型构层级,促进主客观因素的互联互通,勾勒美好未来。“人们总希望生活方式不同于一切生物,这也是事实”42,人类在智能技术演进层面的实践介入具有可能性更具有可为性。从人类生命演进的宇宙时空来看,主动性原则43更能体现人类的初心,以人类自身的责任主动把握智能技术的伦理主动体现了我们的这种主动性。从已有科技化情景展望未来社会,人类可以做的一个关键抉择是技术创新的速度和上限,避免“将人类的身和心推向双重的非自然化”44,这个上限的回答无疑是生命与宇宙的终极问题,探索的路程恰是问题最好的解答。参 考 文 献 康德.纯粹理性批判M.邓晓芒,译.北京:人民出版社,2004:612.1康德.逻辑

32、学讲义M.许景行,译.北京:商务印书馆,1991:15.2利奥塔.后现代道德M.莫伟民,伭晓迪,译.上海:学林出版社,2001:引言.3科尔伯格.道德发展心理学:道德阶段的本质和确诊证M.郭本禹,译.上海:华东师范大学出版社,2004:24.4尼采.善恶的彼岸M.赵千帆,译.北京:商务印书馆,2015:26.5海德格尔.海德格尔选集:下M.孙周兴,译.上海:上海三联书店,1996:938.6海德格尔.海德格尔选集M.孙周兴,译.上海:上海三联书店,1986:929-940.7王国豫,马诗雯.会聚技术的伦理挑战与应对J.科学通报,2016,61(15):1632-1639.8HOA.Deepet

33、hicallearning:TakingtheinterplayofhumanandartificialintelligenceseriouslyJ.HastCentRep,2019,49(1):36-39.9于雪,王前.“机器伦理”思想的价值与局限性J.伦理学研究,2016(4):109-114.10张青,杨卫敏,徐一峰.医学人工智能应用若干问题的哲学思考J.医学与哲学,2020,41(5):1-4.11罗芳,陈敏.医疗人工智能的伦理问题及对策研究J.中国医院管理,2020,40(2):69-71.12甘绍平.机器人怎么可能拥有权利J.伦理学研究,2017(3):126-130.13瓦拉赫,

34、艾伦.道德机器.如何让机器人明辨是非M.北京:北京大学出版社,2017:156.14非社会的社会性:弥补人工智能责任缺口的一种纾困尝试栾云镪医学与哲学 2024年 5月第 45卷第9期总第 740 期4Medicine and Philosophy,May 2024,Vol.45,No.9,Total No.740 刘永安.在有意义的人类控制下发展负责任的人工智能J.自然辩证法通讯,2022,44(9):95-101.15人民网.机器人时代开启达芬奇机器人引领外科手术未来EB/OL.(2017-06-23)2024-03-07.http:/ M.Artificial intelligence,

35、responsibility attribution,andarelationaljustificationofexplainabilityJ.SciEngEthics,2020,26(4):2051-2068.18李凯.积极做好人工智能技术安全风险评估N.中国社会科学报,2019-12-03(6).19弗莱.算法统治世界M.李英松,译.贵阳:贵州人民出版社,2021:101.20弗洛里迪.信息伦理学M.薛平,译.上海:上海译文出版社,2018:54.21吴冠军.从元宇宙到量子现实:迈向后人类主义政治本体论M.北京:中信出版社,2023:36.22陈巍.机器遭遇他心:人机互动时代的社会认知J.

36、学术月刊,2023,55(6):16-27.23陈少敏.医疗消费主义的兴盛、危害及对策J.医学与哲学,2015,36(2A):62-64.24LUXTONDD.Recommendationsfortheethicaluseanddesignofartifi-cialintelligentcareprovidersJ.ArtifIntellMed,2014,62(1):1-10.25刘小璇,张虎.论人工智能的侵权责任J.南京社会科学,2018(9):105-110.26张姝艳,皮婷婷.医疗领域中人工智能应用的可解释性困境与治理J.医学与哲学,2023,44(3):25-29.27JOHNSON

37、D G.Technology with no human responsibility?J.J BusEthics,2015,127(4):707-715.28WILLIAMSR,EDGED.ThesocialshapingoftechnologyJ.ResPolicy,1996,25(6):865-899.29李金恒.非社会的社会性、恶与历史发展的动力:基于康德相关文本的探讨J.现代外国哲学,2019(00):1-11.30BRATMAN M.Intention,Plans,and Practical ReasonM.Cambridge:HarvardUniversityPress,1987

38、:108-109.31克拉克.预测算法:具身智能如何应对不确定性M.刘林澍,译.北京:机械工业出版社,2022:329.32王勇.人工智能时代的法律主体理论构造:以智能机器人为切入点J.理论导刊,2018(2):63-70.33李建中.有限的偶然性:人工智能时代科学研究的尺度J.自然辩证法通讯,2020,42(4):1-8.34陈化.论 AI 的自主性及其限度J.中国医学伦理学,2020,33(7):815-820.35MORAVECH.MindChildrenM.Cambridge:HarvardUniversityPress,1988:15.36赵汀阳.替人工智能着想J.哲学动态,2023

39、(7):41-45.37DEVRIESMJ,CENTERPD.GilbertSimondonandthedualnatureoftechnicalartifactsJ.TechnResPhilosTechnol,2008,12(1):23-35.38张秋菊,蒋辉.医疗人工智能应用的伦理设计与原则J.医学与哲学,2021,42(4):22-26.39邹明明.美德复兴的历程与医学美德的复苏J.医学与哲学,2024,45(3):1-6.40陈多闻.论技术使用者的人性责任J.科学技术哲学研究,2012,29(2):56-60.41丹尼特.达尔文的危险思想M.张鹏瀚,赵庆源,译.北京:中信出版社,202

40、3:462.42富勒,钟林.二十一世纪意识形态系谱的新左派和新右派:预防性原则与主动性原则J.世界哲学,2013(6):116-125.43杜治政.守卫人类的神圣与尊严J.医学与哲学,2022,43(11):5-12.44收稿日期:2023-10-03修回日期:2024-04-01(本文编辑:于磊)启事 关于一稿两投问题的郑重声明本着科学研究工作者严谨的治学精神与严肃的学术道德,为维护医学与哲学杂志社的声誉和广大读者的利益,现将关于一稿两投问题的声明公告如下。1.请作者所在单位在来稿介绍信中注明该文稿无一稿两投问题。2.本刊认为文稿有一稿两投嫌疑时,将认真收集有关资料确认后再通知作者,并在作出处理决定前给作者以解释权。若本刊与作者双方意见有分歧时,提请上级主管部门或有关权威机构进行最后仲裁。3.一稿两投一经证实,将在杂志上刊出其作者单位和姓名以及撤消该论文的通告;对该作者作为第一作者所撰写的一切文稿,不在本刊发表;就此事件向作者所在单位及医学领域内的其他科技期刊进行通报。非社会的社会性:弥补人工智能责任缺口的一种纾困尝试栾云镪医学与哲学 2024年 5月第 45卷第9期总第 740 期Medicine and Philosophy,May 2024,Vol.45,No.9,Total No.7405

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服