收藏 分销(赏)

人工智能法律主体地位思辨.pdf

上传人:自信****多点 文档编号:717728 上传时间:2024-02-21 格式:PDF 页数:11 大小:1.35MB
下载 相关 举报
人工智能法律主体地位思辨.pdf_第1页
第1页 / 共11页
人工智能法律主体地位思辨.pdf_第2页
第2页 / 共11页
人工智能法律主体地位思辨.pdf_第3页
第3页 / 共11页
亲,该文档总共11页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、 98 0 引言随着经济社会各领域融合创新水平不断提升,人工智能在新一轮产业变革和科技浪潮中扮演着至关重要的角色。越来越多的学者将人工智能法律主体地位议题视为对民事主体法理论的挑战,并形成了较多不同的观点。然而,每当谈及由人工智能引发的科技与伦理、经济利益与人性尊严的种种争论的时候,大多数人一般只会停留在技术乐观或者恐惧未来的选边站队层面,很少进行更深层次的思考。这种现象出现的原因就在于,对绝大多数非专业人士而言,由于缺少技术硬核知识所需的专业背景,就只能从“是非善恶”的视阙对人工智能进行感知和评判。是以,对人工智能法律主体地位的探讨,应当以对人工智能采用的算法技术考究为立足点,在技术语境下分

2、析人工智能的“能”与“不能”。在无限的技术创新与有限的人性之间,有必要将人工智能技术纳入康德哲学价值框架之中,以人性控制技术的非理性,从而降低由于科技迅猛发展给人类生存带来的危机感。此外,法学应当承担起理性审视科技发展的使命,探索如何通过法治降低科技发展可能带来的风险1。1 问题的提出与分析视角的证成是否赋予人工智能法律主体地位,既是研究与发展人工智能的前提,又是确立人工人工智能法律主体地位思辨文/李高协1,齐润发2*(1.甘肃省人大常委会法制工作委员会,兰州 730070;2.河北世纪方舟律师事务所,石家庄 050090)摘要:是否赋予人工智能法律主体地位,是人工智能法律制度安排的逻辑前提。

3、对人工智能进行技术层面审视,发现如今的人工智能并未衍生出意识与理性,尚不具备涌现出“智能”的可能,只能作为模型求解的工具;借助康德“人是目的”的哲学命题,阐释人与人工智能之间应当秉持以人为本的价值准则,人工智能只能作为客体、手段存在,不能成为绝对目的。如今,人工智能仅具有“专家系统”的实质,缺乏理性意识与意志表征的实质要件,尚无法发展出人格从而成为一种理性的存在。法律主体的一切权利始于其法律资格与权利能力的预设,人格的缺位导致了人工智能社会属性的缺失,法律无法也更不应当确认或赋予其法律主体地位。关键词:人工智能;主体资格;康德;人类中心主义;权利能力中图分类号:D90 文献标志码:A 文章编号

4、:2096-5036(2023)04-0098-11DOI:10.16453/j.2096-5036.2023.04.011智能论坛AI-VIEW2023 年第 4 期 99 人工智能法律主体地位思辨 中文屋实验,是由美国哲学家约翰希尔勒(John Searle)在 1980 年提出的一个思维试验。该实验的大概内容为假设有个只懂英文不懂中文的人被锁在一个房间里,屋里只给他留了一本参考书或一个计算机程序,在收到屋外给出的中文信息时,这个人能够通过这个手册或程序用中文加以应对。在这样的情景里,外面的人会认为屋里的人完全通晓中文,但事实上这个人只会操作翻译工具,对中文一窍不通。智能体权利、义务,乃至

5、责任的基础。在是否赋予人工智能法律主体地位的主张中持否定态度的,主要有如下三种理由:一是尽管人工智能发展迅速,但其能否发展出等同甚至超越人类智能的水平尚未可知;二是在哲学向度下,人工智能本体不具有人的主体性要素;三是在法律技术上,人工智能不能通过“法人拟制说”拟制成为法律主体。截至目前,关于人工智能主体地位的讨论颇多,但是对于人工智能之“智”和“能”的理解不到位,因而已有学说的论证进路也就存有一定的局限。人工智能目前的技术水平到达了何种程度?人工智能是否能够具备像人一样的意识和意志?人工智能究竟能否成为法律主体?面对价值多元化、科技发展不确定性大幅提升的当今世界,这一系列问题都需要对人工智能可

6、能带来的挑战进行深入思考,方能探索出一条规范人工智能的有益进路。事实上,自达特茅斯会议(Dartmouth Conference)提出“人工智能”概念以来,西方学术界就对人工智能和法律进行了相关研究。1985 年,Freitas 明确提出了一个问题,即是否可以为“有自我意识并能够做出道德选择的机器人”构建“机器人人格”;1988年,麦克纳利和纳亚图拉基于“尊重自然权利”的出发点主张“机器人有可能具备独立的意识与意志,应当赋予其权利能力”2;1991 年,索罗姆通过一系列思想实验的探讨、审视认知科学,以及人工智能哲学中的立场,主张人工智能能够成为“目的受限的受托人”3。然而,二十世纪八十年代著名

7、哲学家约翰 希尔勒(John Searle)提出的“中文屋实验”指出,人工智能甚至可能连人类的语言都无法理解,在希尔勒的术语里,理解或意识等同于一个抽象的哲学观念“意向”或“意向性”。人工智能由于缺少目的性、自主性、关联性等意向性,还无法达成真正的智能4。以“有限人格说”“法律人格扩展说”为代表的多种理论实际上已经脱离了当下人工智能技术的发展程度和智能水平,人工智能被主观地赋予以超越当前技术水平的智能。人工智能呈现繁花似锦短时间内依然只是一种愿景5。韩旭志教授认为,在人工智能技术层面上,“人工智能发展论”的幻想不切实际。现阶段人工智能虽具有自主性,但不具意识和理性,对未来人工智能的幻想不应成为

8、法治的注脚6。龙文懋教授从拉康的欲望主体理论视角出发,认为人工智能是人类技术理性的延伸,似乎与法律主体的预设相契合,但这并不意味着人工智能可以成为适格的法律主体,由于人工智能不具备欲望机制,导致它不具备主体性7;冯洁教授认为,被拟制的法人具有人类依托的特征,动物因缺乏理性的认知无法成为被规范的对象,因此人工智能在性质上更接近于动物而不是法人。实践中的人工智能无法承担独立责任,为其负责的总是人类自身8。关于人工智能主体地位的讨论,必然离不开对人工智能未来发展的关注。而如何审视人工智能未来的发展,大多数学者都将人工智能作“强 AI”与“弱 AI”的区分。弱 AI(弱人工智能)观点认为:历经千万年进

9、化至今的人类智能,其智能化程度绝非现有人工智能的水平可以比拟。如奥地利数学家库哥德尔通过将不完备定理应用于计算机科学和人工智能发展的分析,得出“基于图灵机理论模型的计算机绝无可能拥有代表自我的符号,也就绝无可能达到人类智能的水平”9的判断。强 AI(强人工智能)观点认为:人工智能目前已经具备人类相当甚至超过人类智能的智力10;英国科学家杰夫瑞辛顿 100 智能论坛AI-VIEW2023 年第 4 期认为,大量的基础单元通过多维、复杂的连接方式链接后同时运行能够产生智能,基于以上思路,将人工神经网络系统由一层改进为多层,便可以呈现与人类大脑思维相同的过程和功能。其实强、弱人工智能观点实际上是对新

10、一轮人工智能浪潮给人类及法治所带来的挑战的回应人类既要使人工智能提供完美的服务,又担心人类被其带向不可控的未来,这里面隐含着人类中心主义的观点问题11。在关涉动物权利的问题上,康德基于“主客体统一认识论”以及“人是目的”的哲学观点为人类主体地位的正当性提供了充分的理论依据。故在机器伦理与人类主体地位激烈冲突的今日,本文仍试图以康德的哲学观点为理论依托,立足于具体的技术人工物,通过理性论证对是否赋予人工智能法律主体地位进行批判性地思考和分析。2 技术语境的考察与哲学视角的分析德国计算机科学家马库斯胡特(Marcus Hutter)对通用人工智能(Artificial General Intell

11、igence,AGI)作出了精当的定义智能是主体在各种各样、纷繁复杂的环境中实现目标的能力12。作为人类,我们希望机器能够像我们一样进行判断与决策,而非限于在规则的框架内给出解释性的回答。通用智能应当具备处理多种类型的任务以及多种突发情形的能力。例如,实现“正义”13和“公平”这样的概念。在AlphaGo战胜李世石之前,人们对人工智能的设想,可能仍局限于 The Matrix 和 The Superpowers 等一系列电影的描述中。一小部分人工智能专家和使用“黑箱”技术的公众之间的认知差距越来越大。那么,在人工智能再度兴起的今天,人工智能的内部运行逻辑是怎样的?人工智能能否具备人脑一般的思维

12、?今天的人工智能距离获得真正的智能还有多远?2.1 技术语境的考察:智能能否涌现研究人工智能法律主体地位问题,对人工智能进行技术层面的分析就是个不可回避的问题。因为只有加深对技术的了解,才能弥合法律学者看待人工智能的思想鸿沟。我们要设计人工智能相关的法律制度,技术因素显然是最直接的考虑要素之一。1936 年,图灵在 可计算数字及其在判断性问题中的应用 中首次提出图灵机的概念。1940年,图灵认为“机器具备类人智能”的关键并不在于如何设计一台强大的机器,而在于人类论断机器是否具备智能的依据为何14。1950 年,图灵在 计算机器与智能中首次提出了人工智能的评价准则图灵测试。然而,图灵测试只是确定

13、机器在功能上是否具有与人类相当智能的一种解决方案,无法也不能够确定机器是否具备“自我”的意识或意志。对于人工智能而言,即便它能够通过精密的算法和规则进行“创作”,甚至通过图灵测试达到以假乱真的效果,但它无法意识到什么是自己的,什么是别人的。之后,人类历史上首个人工智能程序“逻辑理论家”(Logic Theorist)在达特茅斯会 这就意味着象思维这样的突现属性可以在不同的系统中产生,也就意味着人工智能能够自行演化得比人类更具有智力。图灵机以天才的抽象性模拟了人脑的计算过程,将其还原为若干最基本的机械操作。图灵测试:是在测试者与被测试者(一个人和一台机器)隔开的情况下,由测试者通过一些装置向被测

14、试者随意提问。如果经过 5 分钟的交流后,有超过 30%的测试者不能区分出哪个是人、哪个是机器的回答,那么这台机器就通过了测试,并被认为具有人类水准的智能。逻辑理论家不仅证明出数学原理阿尔弗雷德怀特海(Alfred Whitehead)和贝特兰罗素(Bertrand Russell)的三卷本数理逻辑巨著中前 52 个定理中的 38 个,还给出了一些比罗素本人的证明更加简洁的解法,这甚至让罗素本人兴奋不已。101 议亮相。“逻辑理论家”的出现颠覆了“计算机只能解决具体数值计算问题,而不能进行抽象的、符号化的数学证明”这一固有的印象。其发明者西蒙曾评论道:“我们发明了具备抽象思考能力的程序解释了合

15、成的物质如何能够拥有人类的心智。”经历了短暂的瞩目之后,逻辑理论家在机器定理证明领域遭遇了难以攻克的障碍,逐渐走向式微。受英国唯物主义代表人物弗朗西斯培根“知识就是力量”的启蒙,Feigenbaum 将研究重点从抽象的一般证明方法转向具体的专业知识,强调人工智能必须在知识的指导下实现,依赖人类创建并反映特定领域专家知识规则的符号人工智能方法专家系统(Expert System)便由此诞生。不幸的是,在获得了大量的实践经验后,其缺点也逐渐显现出来专家系统的运行需以大量的外部知识输入为前提,而这种方式是极为耗时耗力的。除此之外,专家系统在处理新情况时往往无法进行一般化或适应性的处理,原因就在于编写

16、规则的人类专家在行动过程中所依赖的常识、经验难以通过程序化的规则或逻辑编入系统之中,从而造成了专家系统的局限性。正如哲学家安迪克拉克所说,符号人工智能系统的本质是“不擅长逻辑,擅长接飞盘”15。尽管传统的人工智能研究者也在奋力挣扎,但是他们不得不承认,如果知识能够自主涌现,而不是由专家们自行设计出来,那么,机器自主学习将不再成为阻碍技术进步的疑难,他们分别被称为联结主义学派和行为主义学派。联结主义学派主张通过构建人工神经网络来模拟人类大脑的结构和功能,从而再现人类智能的认知与思维过程。尽管科学家可以仿照大脑学习建立神经网络模型,但是,他们却无法得知神经网络的真正工作原理,智能仍然躲在黑盒子里深

17、藏不漏。譬如,近年来随着以大规模语料库训练为基础的大语言模型不断涌现,ChatGPT、GPT-4 等大语言模型(Large Language Model,LLM)在聊天功能方面甚至超越了人类对话水平,LLM 能够将深度神经网络模型用于描述海量文本的向量表示和生成概率,使其在逻辑理解、语言交互等功能方面具备特有优势。然而,模型预训练依赖人工标注,这导致模型的输出结果在一定程度上反映了标注人员的行为和偏好16。行为主义学派认为人工智能源于美国数学家诺伯特维纳建立的全新学科控制论,研究重点落脚于模拟昆虫在控制过程中的智能行为和作用。行为主义智能的终极形式是克里斯托弗提出的人工生命,即通过模拟的形式在

18、人工智能法律主体地位思辨 计算机推了数十万步也无法证明两个连续函数之和仍是连续函数。最糟糕的事情则发生在机器翻译领域,自然语言的理解与处理确实是人工智能中的硬骨头,但计算机在自然语言理解与翻译过程中表现之差也的确超乎了研究者的想象,一个最典型的例子就是下面这个著名的英语句子(The spirit is willing but the flesh is weak),当计算机把这句话翻译成俄语再翻译回英语时,得到的结果可谓风马牛不相及(The wine is good but the meet is spoiled)。专家系统是符号主义人工智能的代表,通过将专家的经验和知识预先输入系统中,将行业内

19、专家的知识以及数据库中的信息转化为专家系统中的规则,从而模拟人类专家解决领域问题。因此,专家系统的缺点很明显系统自学习能力比较差,尽管训练的样本非常大,而专家系统没有自我优化的能力,仍然保留之前的逻辑推理机制,检测系统固定。受启于大脑视觉系统中感受视野特征的方式,联结主义学派认为神经元不仅是大脑神经系统的基本单元,更是行为反应的基本单元。思维过程是神经元的连接活动过程,是通过大量突触相互动态联系着的众多神经元协同作用完成的。行为主义学派认为人工智能源于由美国数学家诺伯特维纳建立的全新学科-控制论。控制论把神经系统的工作原理与信息理论、控制理论、逻辑,以及计算机联系起来,其研究重点落脚于模拟人在

20、控制过程中的智能行为和作用,如对自寻优、自适应、自镇定、自组织和自学习等控制论系统的研究。早在 1943 年,生理学家沃伦麦卡洛克和数理逻辑学家沃尔特匹兹就提出形式化神经元模型。他们提出神经元形式化的数学描述和网络的结构方法,为人工智能创造了一条用电子装置模仿人脑结构和功能的新途径。此后,神经网络被不断改进美国心理学家弗兰克罗森布拉特将反馈学习算法引入神经网络中,英国科学家杰夫瑞辛顿则提出将神经网络由一层改进为多层,美国心理学家大卫鲁梅尔哈特等人提出了多层网络中的反向传播算法,使多层感知机的理论模型有所突破。2000 年,俄罗斯科学家弗拉基米尔万普尼克和阿列克谢切沃内基斯提出了统计学习理论,并

21、进一步提出了支持向量机模型。目前,大型语言模型主要以生成式模型下的大型语言模型为主导,通过大规模数据参数(包含数千亿参数)进行预训练、微调,尽管目前技术呈现出蓬勃发展态势,但大规模数据处理依赖于大量计算资源,计算机、GPU、TPU 等芯片的处理能力在支撑模型工作的同时,也限制了模型的不断扩容,如何提升算力、精进模型成为大型语言模型及自然语言处理要解决的问题。102 智能论坛AI-VIEW2023 年第 4 期计算机数码世界中产生类似现实世界的涌现17。但是,行为主义智能究竟在何种情形下才能够触发智能的涌现?设计何种底层规则及逻辑框架才能使得系统智能得以涌现?这些问题至今没有得到回答。人类的自然

22、科学从一开始就建立在严密的逻辑和规则之上,人工智能也是从空间上、时间上都可以精确地执行任务开始。在这个层次上,人类已经把各种内部外部的影响因素做好了建模,人工智能只是求解这一模型的数学工具。随着实现功能的复杂化,人工智能的结构也变得越来越精细,但它不具备基本的认知能力。而且复杂的人类世界是不可能用确定的模型描述的,要适应这样的环境,人工智能就必须自适应地理解环境。首先是从大量实例中学习必要的规则,再根据学习的规则形成判断的思维,最后利用这种思维指导实际的决策。如果未来的人工智能仍然仅仅是纯粹意义上的非生物体,没有涌现出独立的意识、意志与理性,予其道德抑或是法律上的规制也就无从谈起;但如果人工智

23、能发展出了类似于人的意识、学习能力和感情,上述问题就变得无可逃避。2.2 康德哲学视角的分析:“以人为本”的价值准则1781 年,德国启蒙哲学家康德在其著作 纯粹理性批判 中提出了“以人为本”的价值理念,强调了人的理性与尊严18。康德认为:其一,理性是人与物最本质的区别,只有理性的人才能作为目的,非人理性的物由于缺乏理性本性,仅仅具有工具性的价值,不能成为一个人格进而拥有道德地位19;其二,人作为人的关键在于具备先验的自我意识,使人成为理性的存在,构成所有伦理行为中绝对命令的基础,并使道德成为可能20;其三,人类具有认知和改造外部世界的自由意志,在认识论中人才是中心而非自然,人应当为自然立法2

24、1。康德的人类中心主义其实就是理性至上主义,这使康德明确在人和非人的物之间划清了界限。康德将那些依自然意志存在、无理性的东西称为物;有理性的东西称为人身。物仅具有相对价值,只能作为“手段”存在。相反,人不能被当做手段使用,因为他们的本性表明自身自在地就是目的,并且应当受到尊重22。意识与理性的觉醒使人区别于依自然意志存在的物,从而成为拥有道德地位的主体或目的。而自然界存在的物一旦不再依托于人,也就无所谓价值。因此,人类社会的一切道德法则应当以人为绝对目的,不能将人的价值异化为物的价值。人与人工智能的关系,也应当符合康德上述哲学命题的限定。人工智能一旦不再依附于人类,即便获得了一定的独立性也不应

25、当被视为道德主体,成为绝对目的。人类对人工智能的最初期待只是让它们成为生活助手,把我们从重复单调的劳动中解放出来。倘若人工智能进化到与人类智能同样的水平,甚至在人类智能的基础上更进一步,它们是否还会满足于与人类的同等地位?换句话说,当人工智能可以改变甚至完全脱离自然人为其设计好的初始算法,并且演变出新的算法时,彼时的人工智能物便实实在在地进化成为人工智能人。人工智能人如何改变自然社会,甚至如何引导与影响整个自然社会走向,已非自然人所能完全掌控与想象,恐怕也为人工智能人本身所不知。尤其是,当人工智能人可以在虚拟世界制定规则(创新新的算法),而这种规则又必然会影响到自然界时,那时自然世界的主宰到底

26、是人工智能人还是自然人,或许现在的我们已经难 103 以给出确定的答案。那时的人类在自然世界或虚拟世界中处于何种地位,现在的我们也不得而知。当人工智能人具有沟通情感的能力,并具有生物生成的功能时,在自然人与自然人、人工智能人与人工智能人、自然人与人工智能人之间的多重关系中,谁将为谁制定规则,谁是自然世界或者虚拟世界的主宰或规则主体,以及各种形态主体之间具体的生活样态如何等问题,可能都远远超出了我们当下的想象。麻省理工学院泰格马克教授曾作过一个比喻:一旦人工智能比人类智能更为强大,那么人的地位有可能会沦落到和蚂蚁差不多。没有人憎恨蚂蚁必须除之而后快,但人还是会无意中踩死蚂蚁23。因此,无论人工智

27、能发展到什么程度,都只能将其视为人的客体和工具。时至今日,虽然人工智能的发展已经突破了一定的“阙值”,但目前还远未发展到赋予其主体性和绝对目的的程度24。人工智能系统内所有的程序化运作都依赖研发人员的提前预设,缺乏作为主体性和绝对目的性的理性、自由和自我意识。以轰动一时并为人津津乐道的人工智能机器人 AlphaGo 大战李世石为例,人类棋手或者游戏玩家的“功力”往往来自经验,也就是人们积攒的大量的套路,这些套路只是针对某个封闭对弈空间的有限选择。而 AlphaGo 的智能则是通过强化学习的算法预先介入,人工智能目前所能做的还只是“最快的猜测”或者说“以快取胜”;时隔六年后风靡全球的消费应用程序

28、 GPT 通过Generative Pre-Trained Transformer 并经由庞大的互联网语料库训练后,可根据用户输入的文字内容生成对应文字回答,实现常见的聊天问答。其强大的功能仍然源于机器学习、神经网络模型和 Transformer 架构等多种技术模型的积累,只是相比以往模型的基础上具备更大的语料库、更强的计算能力25。目前,人工智能可以动辄在更大的博弈空间里处理海量的数据,表现出令人咋舌的算力水平,远远超过人类的计算能力。这种能力在让人惊艳的同时,也带有很强的迷惑性,使人误以为人工智能已经“沾了仙气”26。其实,真正的人工智能也应当是基于大数据而诞生的,并基于大数据不断进化。通

29、过对海量数据的搜索和其他相关操作进行关联性的提取与分析后,机器大脑就能够找出在发生某个特定事件时,绝大多数人类的行为模式,并以这种模式和人类进行交互,使人以为对面真的是一个人。在康德“人是目的”的哲学命题下,人因为理性、具备独立意识和自由意志应当作为主体,而非理性、不具备独立意识和自由意志人工智能只能以客体形式存在。无论人工智能科技发展到什么程度,“以人为本”的价值准则不应发生任何改变。3 法律人格的人类中心主义3.1 法理视角的剖析:权利能力与法律资格的逻辑辩证法律人格的理论发源于康德道义论对于哲学向度中“人”的诠释27,28,也即所有理性的存在都是人。故康德“以人为本”哲学理念的价值内涵实

30、际是“理性至上主义”。制定法在界定人是什么这个根本问题时,与康德“以人为本”“理性至上”的哲学理念实质上是殊途同归的。从根本上讲,制定法是围绕“人”的社会文化属性开展的,藉由一种普遍的、规范的法则回答了人是什么这个根本问题,它决定了人类行为的界限,从而阐明人工智能法律主体地位思辨 强化学习可以理解为“从更好的猜测中学习猜测”。104 智能论坛AI-VIEW2023 年第 4 期了人与社会之间的关系。法律规范本身就是一种社会结构29。这样,人就从一个有机体转变为社会文化意义上的“联想与联系的结构统一体”,进而成为一个“规范的人”30。那么,主张人工智能可以被赋予法律主体资格成为制定法上的“规范人

31、”,首要任务就是确定成为法律主体的标准是什么?人格在英语德语和法语中的表达分别为 Personality、Personlichkeit、Personalit。其中,Personality 指社会文化属性是人的本性属性,人因具有精神内核,是以成为了一个有价值、有意义的存在,从而在本质上区别于物体的和生物的客体;Personlichkeit 指人之所以为主体的才华及才能,因为人具有独立的意识及意志等自我规范、支配的能力,从而区分于生物意义上的动物,不会被动受制于自然;Personalit尤指向具体的品性和人格魅力。人作为主体凭借其品性和品格,从而与他人区别开来对他人产生一定的影响31-33。综合而

32、言,资格、能力,以及品格是从三种不同角度对人格的诠释,三重含义既相互联系又各有侧重。从根本上讲,能力和品格全部都根源于资格,也即人格最重要的意蕴之一便是作为社会文化属性的人的资格,它是人的精神内核。制定法赋予每个人平等的法律主体地位,从而人便具备了“法律人格”,但是不可以产生“法律人格是法律赋予的”观点。从根本上讲,法律人格只是对具有社会文化属性的人的法律承认。公民权利和政治权利国际公约 第 16 条、美洲人权公约 第 3 条中的人指称为法律面前的人;韩国民法典 第 3 条、埃塞俄比亚民法典 第 1 条中的人是权利和义务的主体;瑞士民法典 第 11 条、我国 民法典 第 9 条中的人是权利能力

33、的享有者。中文语境下“权利能力”的表达在实质上与“法律资格”“法律主体”的表达无异,但却略显晦涩难懂,原因就在于国内学者对德语 Rechtsfahigkeit 一词的通译上。“Rechtsfahigkeit”一词中的Recht可翻译为“法律”抑或是“权利”,“Fahigkeit”可翻译为“能力”“资格”或是“地位”。以往国内学者在翻译“Rechtsfahigkeit”一词上不加区分地将“Recht”翻译为“权利”,将“Fahigkeit”翻译为“能力”,固然能够与“行为能力”“责任能力”等法律术语相区分,却不致精当。如果基于制定法实体性功能的考虑,整体上把“Rechtsfahigkeit”译为

34、“法律资格”,以替代在功能上不加区分的直译“权利能力”,在中文语境下便更易为人理解与接受,也显得更为精准。人作为享有主体资格的法律主体,享有一定的权益,这是主体制度设立的初衷及目的,否则主体地位制度便如同虚置。那么,作为法律主体的人如何才能享有权利以及利益,其中一种法律手段是通过成文法确认个人的权利,并通过赋予个人权利使个人利益服从于个人意志(即个人权利)。从某种程度上讲,权利即为一种由制定法赋予的、能够独立实现个人利益的意志力。意志力的获得和它所控制的自由空间的界限并不是来自个人意志,而是根源于制定法。而制定法在分配利益空间上的不同考量,来源于立法者对利益抑或是支配自由空间的价值判断,是以一

35、切制定法不过是对人的行为之价值判断。当然,具体到本文谈及的人工智能法律主体地位议题亦是如此,制定法赋予人工智能法公民权利和政治权利国际公约第十六条:人人在任何地方有权被承认在法律前的人格。美洲人权公约第三条:在法律面前,人人都有权被承认是一个人。韩国民法典第三条:人于其生存期间,成为权利及义务的主体。埃塞俄比亚民法典第一条:自然人自其出生到死亡,是权利主体。瑞士民法典第十一条:人都有权利能力。中华人民共和国民法典第十三条:自然人从出生时起到死亡时止,具有民事权利能力,依法享有民事权利,承担民事义务。105 律主体资格的目的是为了保护人工智能关涉的利益。那么,为何要将人工智能进行法律主体化,不主

36、体化不同样可受到制定法保护?强调将人工智能法律主体化的功能或意蕴又何在呢?法律主体作为一种抽象的法律制度,其背后有着浓厚的社会历史因素,怎样的实体才应当享有法律主体资格,不是法律制定机关根据实体的特征恣意创造的,而是基于当时社会的整体价值诉求和物质生活条件而抽象或虚拟的、取决于在实践基础上所形成的共识。但从目前而言,赋予人工智能法律主体地位的契机仍尚未来临。除此之外,在明确了权利能力与法律资格的关系之后,也不能以为似乎只有赋予人工智能法律主体资格才体现出对人工智能可能引发的问题之重视,其他的一切规制人工智能引发的社会问题之法便与此无关,其实不然,法律主体化只是规制人工智能所产生的社会问题的路径

37、之一,现有法律制度通过合法、合理的解释尚能解决人工智能所带来的一系列挑战,大可不必对赋予人工智能法律主体地位如此热衷。3.2 主体地位的反思:人工智能的人格否定人之为人在于人具有理性、独立意识,以及为自然立法的自由意志,也就是我们所说的人格。在制定法规范中,人格指代的不应当是人的法律主体地位,而是基于人的社会属性负载的生命、健康、名誉等精神利益,制定法通过确认人拥有权利,从而保障人能够合法地享有这些利益。德国民法学家 Karl Larenz 认为每个人都具有权利能力,因为他在本质上是一个伦理意义上的人34。Savigny 同样认为所有的法律都是道德意义上的存在,法律存在于每个人内在的自由意志当

38、中35。是以法律人格、法律主体与人的内涵和外延是完全匹配的,人格也就成为了自然人理性、意识独立,以及意志自由的抽象代名词。也即生物人、非生物人只有具备了人格才有可能成为法律主体,才有可能影响法律关系的形成、变更和消灭。如果我们希望人工智能在法律的规制下更好地造福于人类,就不可避免地需要先对人工智能的法律性质进行界定,进而议定其法律地位。目前,法律制度对主体的预设是理性主体,理性主体具有独立、自由的意识与意志,能通过自由自主地为一定行为的方式与他人建立相应的法律关系。而就目前人工智能技术所能达到的程度而言,人工智能显然尚不具备上述特征,无法赋予其相应的主体地位。一是人工智能没有独立意识,缺乏自主

39、的认知能力与情感能力。认知、直觉和情感并非是与我们讨论的智能不相关的事物,而是人类大脑特有的思维活动过程。归根结底,人脑进行的是复杂度超高的抽象计算,其智能化程度绝非现有的计算机水平可以比拟。眼睛、耳朵等感知器官与注意、意识等高级认知功能之间具有高强度的交互作用,而不仅仅是实现信息获取这么简单的功能。在西方思想谱系中,哈奇森、休谟等人均曾多次强调情感的作用,主张情感先于理性36;数学家兼哲学家吉安卡洛罗塔也曾提出“人工智能是否以及何时能打破通向意义的障碍”37的疑问。然而,就目前的科技水平而言,人工智能只能通过算法完成特定的逻辑处理活动,没有意识、情感等人类特有思维活动的涌现,不能够被称为智能

40、。人类可以以某种深刻的方式来理解、应对他们当前所面对的情境。但是,目前还没有任何一个人工智能系统具备这样的理解力。尽管目前最先进的专家系统在完成某些特定的领域的任务上拥有比肩,抑或是超越人类的能力。但是,人工智能法律主体地位思辨 106 智能论坛AI-VIEW2023 年第 4 期这些专家系统都无法具备理解人类赋予语言和推理上某些特殊意义的技能。这一理解力的缺乏主要表现在以下方面非人类式错误、难以对所学到的内容进行抽象和迁移、对常识的缺乏、面对对抗式攻击时所呈现出的脆弱性等。人工智能和人类水平智能之间的“意义障碍”至今存在。存在于科幻电影中通用智能(强人工智能),只是部分学者或公司的主观臆想3

41、8。预测是很难的,尤其是对未来的预测39。我们所知道的是,通用的、人类水平的人工智能需要人工智能研究人员数十年来一直努力去理解和再现的能力,比如对常识的理解、抽象和类比等,但这些方面的能力被证明是非常难以获得的。对于人工智能何时实现通用的、人类水平的智能,我们毫无头绪。二是人工智能不具备承担责任的能力。虽然基于 LLM 的生成式人工智能(AI)已经在众多领域展示了令人兴奋的新应用场景,但是对于大语言模型而言,最大的风险就是数据安全和隐私保护40。一旦立法将法律责任分配给人工智能,我们仍然需要决定谁将支付损害赔偿的费用,这将成为一项公共政策决定。因为立法者和法官不得不在经济发展的利益和公平公正之

42、间进行权衡。基本上,有三种可选择方案。所有权人支付赔偿费用。把责任归于人工智能所有权人看似是一个合理的公共政策决定。乍看起来,这个决定简单易行,而且似乎有一定的公平性。但是,它不能反映出当人工智能造成损害或者伤害时通常发生的事实,即车主经常与事故发生没有任何关系。如果由购买人工智能产品的所有权人承担责任,就意味着不鼓励人工智能所有权。如果公共政策的部分目的是鼓励诸如人工智能这样的新技术的开发和商业成功,那么,迫使潜在消费者承担所有风险将会适得其反。开发商或者制造商支付赔偿费用。就像所有权人承担责任一样,将责任归于开发商或者制造商看起来也很简单,易于管理,甚至与严格责任相似,制造商和设计者都不应

43、有导致事故发生的意图。因此,人工智能产品被认为不符合制造商应该有的产品质量规格。但是,这也存在于所有权人承担责任相同的缺陷。面对工作中的意外情况,如果潜在开发商和设计者认为他们的发明会迫使他们在产品正常工作的情况下也支付损害赔偿金,他们将不会想要发明新型人工智能。由人工智能保险支付赔偿费用。部分学者提出设法提供一种储备基金41支付人工智能欠下的赔偿费用,即要求为人工智能产品购买一定额度的保险或者对购买人工智能产品的人增加责任附加费,以开立由政府或行业保管的储蓄金。但是,人工智能保险制度的建立势必会增加售价,反而会加重普通消费者的负担,引发人工智能市场的萎缩,如此一来反而违背了激励产业科技创新的

44、初衷。三是不能够通过法律拟制手段赋予人工智能法律主体地位。从法律主体资格历史发展的角度看,奴隶、妇女,以及法人都曾不具备法律主体资格,而后经过奴隶解放运动、女权主义运动以及经济发展的考量,才通过扩展与拟制被赋予了法律主体地位。因此,法律主体经历了从局部人发展到普遍人、从生物人扩展到拟制人的转变。基于法律主体地位的历史演变,有学者认为,法律主体在类型与范围上都具备开放性,赋予人工智能法律层面的主体地位也应当成为可能42,其实不然。法人能够被法律拟制成法律主体的原因具体如下。其一,不同于人工智能,法人是商品经济的产物。赋予法人法律主体资格是商品经济发展的必然结果,现如今大量公司的涌现推动了经济的发

45、展,从而印证 107 了法人制度的经济功利主义43。其二,不同于人工智能,法人有主体地位的社会属性。从应然到实然角度看,法人具体行为的实施、法人权利与义务的实现都离不开具体的自然人。在公司法制度上,如果公司出现了以财产混同、人格混同为表征的法人人格混同情形时,会以法人人格否认制度追溯到法人背后的实际控制人。除此之外,对单位以及单位犯罪的主要负责人实施双罚的“双罚制”亦是法人人格依托的有力体现。其三,不同于人工智能,法人承担主体地位的责任能力。法人拥有独立的财产,可以享有权利,履行义务并承担责任44。立法者将法人拟制为民事主体,并未超越实在法关于法律主体内涵的限定。就人工智能而言,无论通过特定目

46、的设立抑或是捐助而产生的方式的财产其实无法真正脱离于所有人,“购买强制保险”或者“设立基金法人”的做法中承担责任的依然是保险机构或者基金法人,人工智能背后缺乏组织成员,没有人类依托,难以解决责任承担主体等问题。如果将人工智能设计者、生产者乃至管理人、所有人纳入责任承担体系,赋予人工智能法律主体地位何尝不是多此一举?4 余论在产业智能化的这个时代趋势之下,有人怀疑泡沫即将破裂,也有人坚信这场变革会带来巨大的机遇。然而,大多数人对人工智能的理解是模糊的,比如技术的边界在哪,产业界能否落地,法律伦理是否面临困境等。大多数人工智能专家对通用智能的出现还秉持观望、怀疑的态度,人工智能短时间内还不具备发展

47、成为通用智能的可能,我们对通用智能的发展还应当保持一颗谨慎以及敬畏之心。至少在不久的将来,人工智能仍然仅能作为人类劳动的延伸,再强大的人工智能也还需要人类的思维以主宰其意志。今天的人工智能,笔者更倾向于称之为专家系统,仅适用于执行特定领域的具体任务,并未展现出如人类智能一般的智慧。要实现友好人工智能的建设目标,最好的状态不是让人工智能完全取代人,而是让其成为人类的好助手。参考文献1 郭锐.人工智能的伦理和治理M.北京:法律出版社,2020.2 MCNALLY P,INAYATULLAH S.The rights of robots:technology,culture and law in t

48、he 21st centuryJ.Futures,1988,20(2):119-136.3 SOLUM L B.Legal personhood for artificial intelligencesJ.NCL Rev.,1991,70:1231.4 SEARLE J R.Minds,brains,and programsJ.Behavioral and brain sciences,1980,3(3):417-424.5 成素梅,高诗宇.智能机器人应有法律主体资格吗?J.西安交通大学学报(社会科学版),2020,40(1):115-122.6 韩旭至.人工智能法律主体批判J.安徽大学学报(

49、哲学社会科学版),2019,43(4):75-85.7 龙文懋.人工智能法律主体地位的法哲学思考J.法律科学(西北政法大学学报),2018,36(5):24-31.8 冯洁.人工智能体法律主体地位的法理反思J.东方法学,2019(4):43-54.9 叶妮,王宏波.“乌托邦”与“实践性”理解人工智能时代的物我关系J.科学技术哲学研究,2017,34(6):113-119.10 谢晖.数字社会的“人权例外”及法律决断J.法律科学(西北政法大学学报),2021,39(6):43-56.11 田鹏颖,周鑫.唯物史观论域下人工智能的伦理问题思考与合伦理设计J.宁夏社会科学,2021(2):22-29.

50、12 周晋.国际制裁合规:洞悉脉络J.中国外汇,2018(Z1):68-69.13 马长山.司法人工智能的重塑效应及其限度J.法学研究,2020,42(4):23-40.14 王天一.人工智能革命历史、当下与未来M.北京:北京时代华文书局,2017:10.15 CLARK A.Being there:putting brain,body,and world together againM.MIT press,1998,15.16 李紫菡,周双双,唐国恒,等.ChatGPT概述及应用研究J.债券,2023(6):70-75.17 冯锐,张君瑞.人工智能研究进路的范式转化J.现代远程教育研究,20

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服