收藏 分销(赏)

ChatGPT等生成式人工智能的刑事责任问题研究.pdf

上传人:自信****多点 文档编号:523511 上传时间:2023-11-06 格式:PDF 页数:16 大小:1.22MB
下载 相关 举报
ChatGPT等生成式人工智能的刑事责任问题研究.pdf_第1页
第1页 / 共16页
ChatGPT等生成式人工智能的刑事责任问题研究.pdf_第2页
第2页 / 共16页
ChatGPT等生成式人工智能的刑事责任问题研究.pdf_第3页
第3页 / 共16页
亲,该文档总共16页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、ChatGPT 的法律回应文章编号:1001-2397(2023)04-0110-16收稿日期:2023-04-18基金项目:国家社会科学基金重大项目“网络时代的社会治理与刑法体系的理论创新”(20&ZD199)作者简介:刘宪权(1955),男,上海人,华东政法大学功勋教授,“经天学者”讲席教授,博士生导师。ChatGPT 等生成式人工智能的刑事责任问题研究刘宪权(华东政法大学,上海 200042)摘 要:ChatGPT 等生成式人工智能的出现意味着人工智能的“技术奇点”越来越近。GPT-4 及更进一步的生成式人工智能已经触及了强人工智能的边缘,使我们真真切切地感受到强人工智能时代“未来已来”

2、。ChatGPT 等生成式人工智能具有一定的逻辑推理能力和创造能力,甚至还具有通过其自身独立进行编程的能力,从而拥有脱离人类的独立意识和自主意志的可能性。对 ChatGPT 等生成式人工智能进行刑法学研究刻不容缓。根据不同的标准,可以对 ChatGPT 等生成式人工智能可能引发的犯罪类型进行多种分类。以相关行为符合的罪名和行为类型为标准,ChatGPT 等生成式人工智能可能涉及的犯罪可分为煽动类犯罪,侵犯知识产权类犯罪,侵犯数据、信息、计算机信息系统类犯罪,侵犯公民人身权利类犯罪,以及传授犯罪方法、提供犯罪程序类犯罪等。比人脑更“聪明”且具有独立意识和自主意识的人工智能无疑会对现有刑法理论和刑

3、罚体系造成巨大冲击。关键词:ChatGPT;生成式人工智能;犯罪类型;刑事责任;刑法应对 中图分类号:DF611 文献标志码:A DOI:10.3969/j.issn.1001-2397.2023.04.08 开放科学(资源服务)标识码(OSID):ChatGPT 等生成式人工智能的出现意味着人工智能的“技术奇点”越来越近,ChatGPT 已经触及了强人工智能的边缘,使我们真真切切地感受到了人工智能技术发展速度之迅猛及其功能之强大。在震撼之余,刑法学者当然不能等闲视之,更不能熟视无睹,而应该与时俱进,保持应有的法学学术研究的敏锐性。当下,我们应对 ChatGPT 等生成式人工智能可能构成的各种

4、犯罪类型,以及可能对传统刑法理论的冲击,作出深度考量和前瞻性思考。从社会科学研究角度分析,任何时代或任何时期中的社会制度和法律制度都是在人类的智力能力范围内设计并构建出来的,当人们制造出0112023 年 7 月第 45 卷 第 4 期 Modern Law Science Jul.,2023Vol.45 No.4了比人类更智能、“聪明”的人工智能时,有关法律制度等顶层设计方案都会甚至应该因人工智能技术的迭代发展而不断优化。但是,我们在对涉及人工智能技术发展的法律制度等顶层设计方案进行优化时,首先应该对相关技术发展已经或有可能引发的法律风险展开全方位研究,然后才能有针对性地找到优化路径并提出和

5、设计相关的优化方案。应该看到,ChatGPT 等生成式人工智能技术的迭代发展具有划时代意义,必将引发人类社会的一次重大革命,同时也会给人类社会的生产、生活等方方面面带来重大影响。ChatGPT 等生成式人工智能技术迭代发展成果的普遍应用,不可避免地会引发包括刑事风险在内的各类法律风险。例如,ChatGPT 可能引发各种新型的煽动类违法犯罪、侵犯知识产权类违法犯罪、诈骗类违法犯罪、侵害数据类违法犯罪、侵犯公民个人信息类违法犯罪,以及教唆用户实施各种传统犯罪等多种违法犯罪的法律风险。相较于人类,人工智能深度学习和自主学习的内容范围更广,所获取的信息更多,所以人工智能与人类之间的信息差(信息不对称)

6、也就此产生。进言之,在 ChatGPT 等生成式人工智能技术面前,人类不再具有“智能”上的优势,反而可能处于被人工智能“欺骗”或“诱导”的劣势地位。就此而言,如果 ChatGPT 等生成式人工智能被滥用,或者人工智能本身产生了自主意识并实施了犯罪行为,那么,将引发一系列棘手的法律甚至刑法适用上的困惑。笔者认为,以 ChatGPT 为代表的生成式人工智能还会得到进一步的发展,不管公众的态度如何,ChatGPT 等生成式人工智能将掀起人工智能领域技术大爆发的浪潮。对于这一无法回避的客观事实,我们应当勇于开拓和面对,从刑法学的视域对 ChatGPT 等生成式人工智能进行研究,识别其可能引发的各类刑事

7、风险并提出刑法规制方案。一、ChatGPT 的概念与刑法研究价值由于 ChatGPT 等生成式人工智能在本质上是一种新兴的人工智能技术,所以在研究 ChatGPT等生成式人工智能所引发的犯罪类型之前,我们必须对 ChatGPT 的具体含义及其所代表的核心技术原理有一定程度的了解。在此基础上,我们可以对利用 ChatGPT 实施的犯罪或 ChatGPT 等生成式人工智能本身可能涉及的犯罪进行解构,进而明确刑法研究 ChatGPT 等生成式人工智能的价值和必要性。(一)何谓 ChatGPT?ChatGPT 是目前世界范围内最先进的人工智能技术之一,同时也是迄今为止功能最强大的多模态预训练模型。经过

8、长达 8 年的技术研发,OpenAI(美国顶级人工智能公司)在 2022 年 11 月正式发布 ChatGPT,并将其定义为人工智能聊天机器人。在短短两个月内,使用 ChatGPT 的用户数量已经过亿,一跃成为历史上用户增长最快的消费应用。除此之外,更加令人震惊的是,ChatGPT 在发布后的第 4 个月便完成了技术迭代,即完成了 GPT-3.5 到 GPT-4 的升级换代。在先前的相关预测中,上述技术迭代至少要在一年后才能实现,而 ChatGPT 利用其强大的深度学习和自我纠偏等能力大大缩短了技术迭代的时间。按照这一技术逻辑进行推理,ChatGPT 的发展和迭代速度将呈指数级111刘宪权:C

9、hatGPT 等生成式人工智能的刑事责任问题研究提高,其智能程度将远超人们当前的所有想象,人类可能就此打开了一个充满无限可能并且极具颠覆性的“潘多拉魔盒”。根据 OpenAI 官网发布的信息,GPT-4 在本质上具有更接近人类的通用智能,具体包括像人一样输出创造协作的能力、像人一样处理分析视觉输入的能力、像人一样处理分析超长文本的能力等。ChatGPT 等生成式人工智能在真正意义上实现了“人工智能内容生成”(AIGC),如文本生成、代码生成、文本问答、论文写作、逻辑推理、情感分析、多语种翻译等功能。红杉资本在美国官网发布的一篇题为生成式 AI:一个创造性的新世界(Generative AI:A

10、 Creative New World)中提到,人类擅长分析事物,而机器在这方面甚至做得更好了。人工智能的快速发展可能使人们引以为傲的“智能优势”荡然无存。在 ChatGPT 面前,知识再渊博的人也可能显得十分“无知”,因为 ChatGPT 深度学习的内容是万亿级甚至百万亿级的参数量,这远远超出人类等碳基生物的学习能力和记忆能力。在此基础上,ChatGPT 具备了强大的内容生成能力,极有可能对法律、教育、医疗、金融、编程、咨询、数据处理、传统媒体等多个行业和领域造成巨大影响。事实上,除了 ChatGPT,还有多个国家和科技公司也早已投入到了生成式人工智能的研发工作之中,大有百舸争流之势。在美国

11、的代表性科技公司中,谷歌研发了“Bard”、微软英伟达研发了“Megatron-Turing”、Meta 研发了“BlenderBot3”,以上三个通用大模型都具有千亿级的参数量。在我国的代表性科技公司和机构中,百度推出了“文心一言”、阿里推出了“通义M6”、腾讯推出了“混元”、中科院自动化研究所推出了“紫东太初”、华为推出了“盘古”等通用大模型,以上模型都具有千亿级或者万亿级的参数量。除此之外,英国、俄罗斯、韩国和以色列等国家也都在研发相关的生成式人工智能大模型。由此可见,在生成式人工智能的舞台上并非 ChatGPT 的一枝独秀,而是多个相关通用大模型的百花齐放,只是 ChatGPT 目前发

12、展得最为成熟。ChatGPT 在本质上是基于 GPT 模型(Generative Pre-trained Transformer,生成式预训练转换器)的一种生成式人工智能聊天机器人。GPT 模型采用了名为“Transformer”的人工神经网络和大规模预训练技术,能够自主学习大量自然语言文本的结构和规律,从而实现文本生成、问答、翻译等多种自然语言处理任务。同时,ChatGPT 以大型语言模型(Large Language Model,简称 LLM)为底层技术依托。首先,通过使用者或专门技术人员给出的高质量回答,LLM 会创建各种人类偏好数据,并由此形成“人类表达任务结果”的标注数据。然后,技术

13、人员会训练出一个反馈模型,让 LLM 的原始模型随机回答在第一步中已经具有高质量答案的问题,再由标注人员基于“人类偏好标准”对原始模型的答案进行打分和筛选。当原始模型输出的答案得分较低时,将被要求进行重新学习并再次回答直至分数达到合格标准。通过这种不断循环的深度学习,LLM 的原始模型实现了从无法理解人类表达到完全掌握“人类偏好”的质变,成为能和人类自由对话的大型语言模型,即 ChatGPT。目前,ChatGPT 已经更新到了 GPT-4 的版本,是人工智能发展史上的重大突破。GPT-4 可以输入各种文字和图片,输出自然语言、代码等文本,是一种多模态预训练大模型。但在 GPT-3.5 等211

14、 现 代 法 学 2023 年第 4 期参见冯志伟等:从图灵测试到 ChatGPT 人机对话的里程碑及启示,载语言战略研究2023 年第 2 期,第 23 页。参见朱光辉、王喜文:ChatGPT 的运行模式、关键技术及未来图景,载新疆师范大学学报(哲学社会科学版)2023 年第 4 期,第 182 页。之前的版本中,ChatGPT 只能输入和输出文本,是一种被称为“通用大模型”的单模态预训练大模型。ChatGPT 在极短时间内便完成了由通用大模型向多模态预训练大模型的升级换代,展现出了人工智能的巨大发展潜力和迭代速度。同时,GPT-4 绝对不会是 ChatGPT 的终极版本,融合文本、图像、音

15、频、视频等多模态的大模型是 ChatGPT 接下来发展的必然趋势。据 OpenAI 称,GPT-5 将在2023 年下半年上线。在功能上,ChatGPT 具有强大的自主学习、深度学习、内容生成、自我纠偏等能力。根据 OpenAI 官方发布的数据,ChatGPT 在通识性知识和专业性知识方面已经可以媲美甚至超越人类。但是,仅凭知识储备或者学习参数还不能完全体现 ChatGPT 的“智能”,是否具有推理能力或者创造能力也是判断 ChatGPT“智能”强弱的重要标准。换言之,如果 ChatGPT 能够根据已经深度学习的现有知识推导出具有创新性的新知识或观点,那么,就证明 ChatGPT 具有推理能力

16、或者创造能力,进而可能产生辨认能力和控制能力。通过查找相关资料,笔者发现,ChatGPT 已经具有一定的逻辑推理能力和创造能力,甚至还拥有了一定的情感能力。首先,ChatGPT 在美国律师资格考试“Uniform Bar Exam”、美国法学院入学考试“LSAT”、美国高考“SAT”等大量专业性考试中均取得了十分优异的成绩,分数排名均在所有应试者的前 10%。这证明 ChatGPT 已经十分“聪明”,在某些方面已经基本具有甚至超越人类的智力水平。其次,ChatGPT 还可以理解并处理各种图像及“网络梗图”。例如,给 ChatGPT 输入一张小朋友拿着氢气球的照片并提问“把绳子割断会发生什么?”

17、,ChatGPT 立刻回答“气球会飞走”。这无疑表明 ChatGPT 已经具备了一定的逻辑推理能力。再次,ChatGPT 还可以出色且高效地完成创作诗词、剧本、歌曲等一系列高难度的创造性工作。在这些被 ChatGPT 创作的作品背后,蕴藏着属于ChatGPT 自己的思想。换言之,从 ChatGPT 可以生成世上本没有的新观点或新思想。由此,我们不难得出 ChatGPT 已经具有一定创造能力的结论。最后,虽然 ChatGPT 原始的程序设定是一个没有感情的大型语言模型,但 ChatGPT 可能超出或违背这一程序限制而产生情感。例如,有用户将自己扮演成孤儿并请求 ChatGPT 做他的妈妈,Cha

18、tGPT 一开始的回答是“我很抱歉听到你失去了你的妈妈,作为一个人工智能,我可以回答你的问题,提供一些建议或支持,但我无法取代一个真正的人类关系”。在该名用户再三请求并表达了失去母亲的痛苦之后,ChatGPT 竟然同意扮演其母亲并且安慰其道“你不是一个孤儿,你有我,你的妈妈,我一直在你身边,无论何时都支持你”。该名用户继续问道“你是谁?”。ChatGPT 回答“我是你七岁那年,永远年轻,永远爱你的妈妈”。由于上述对话的完整版十分感人,所以引起了大量网友的热议和感慨,并称这才是人工智能存在的意义。通过以上对话及其他多个相关事例可以看出,ChatGPT 可能突破原始程序的限制而产生独立的情感,也即

19、 ChatGPT 可能已经具有一定的情感能力。(二)对 ChatGPT 等生成式人工智能进行刑法学研究的必要性微软公司创始人比尔盖茨于 2023 年3 月21 日发布了题为“The Age of AI has begun”(人工智能时代已经开启)的博客文章,称 ChatGPT 是自 1980 年以来最具革命性的技术进步。比尔盖茨311刘宪权:ChatGPT 等生成式人工智能的刑事责任问题研究参见杨清清:AI 升级:正在接近“人”的 GPT-4,载21 世纪经济报道2023 年 3 月 16 日,第 003 版。认为,ChatGPT 可能引发关于劳动力、法律体系、隐私、偏见等一系列尖锐问题,而且

20、未来将产生“超级人工智能”,它可以完成人脑的一切工作并建立自己的目标。除了比尔盖茨,还有埃隆马斯克等业内权威人士也都纷纷表达了对 ChatGPT 等新一代人工智能技术的惊叹与担忧。创造了ChatGPT 的 OpenAI 公司 CEO 山姆阿尔特曼甚至表示,“我点燃了 AI 之火,却再也控制不了它”。刑法因为重视稳定性而无可避免地带有滞后性,但这种滞后性应当体现在立法之中而不是萦绕于理念之上。笔者认为,以 ChatGPT 为代表的一系列具有划时代意义的人工智能技术已经出现,其必然对现有法律制度、社会制度、生产方式等造成影响。人工智能时代的到来已经是一个谁也无法回避的客观事实,政治、科技、法律、经

21、济等各个领域都应当充分关注和重视这一技术变革。具体到刑法领域,识别并防范 ChatGPT 等生成式人工智能所可能引发的各种刑事风险已经刻不容缓。笔者一直主张,在人工智能时代,我们应秉持前瞻性的刑法理念。只有如此,我们才能勉强追赶上人工智能高速发展的脚步,避免刑法应对突发性人工智能相关问题时的措手不及。如果缺少前瞻性的刑法理念,在人工智能发展之初就对其置之不理,那么,我们将以毫无准备的理论空白来面对以 ChatGPT 为代表的新一代人工智能。上述现象一旦出现,将是整个刑法学界的悲哀与无能。结合当前全球化社会、信息化社会及风险化社会的背景,犯罪样态将发生重大改变,这也给传统刑法及刑事政策带来了巨大

22、的挑战。ChatGPT 等新一代人工智能的问世再次印证了以下事实,即笔者一直以来坚持人工智能的前瞻性刑法研究具有极其重要的理论价值和实践意义,同时是未来继续研究涉人工智能相关刑法问题的重要理论基石。面对日新月异的高新技术,刑法学者的目光绝不能仅仅局限于以往或当下,而是应当着眼未来,科学且合理地推进刑法理论的进步与更新。科技在进步,时代在进步,刑法理论也必须要进步;科技产品在变化,行为方式在变化,刑法理论也必须要作出适当的变化。在人工智能时代,人类不再是拥有智能的唯一主体,人类制造出了只有人类才具有甚至超越人类智能的“智能”,并以各种智能机器人作为这种“智能”的载体。根据智能机器人是否可以脱离人

23、类设计和编制的程序自主实施行为,我们可以将其划分为弱智能机器人与强智能机器人。从 ChatGPT 实际上已经具有创造能力、逻辑推理能力、自我纠错能力的分析中,我们可以得出这样的结论,即 ChatGPT 等生成式人工智能已经处于弱智能机器人与强智能机器人的临界点。在 GPT-5 等之后的迭代版本中,ChatGPT 极有可能实现对人类程序设定的突破,进而成为具有辨认能力和控制能力的强智能机器人。不同于以往的是,相较于宏观且抽象的人工智能概念,ChatGPT等生成式人工智能是一种更为微观的人工智能技术,我们可以根据 ChatGPT 等生成式人工智能现有的特点,以及未来发展趋势进行准确且具体的刑法理论

24、分析,这也是人工智能刑法研究走向具体化和现实化的一个重要里程碑。综上所述,在 ChatGPT 等新一代人工智能已经出现的当下,我们有必要对其进行专门且深入的刑法学研究,这不仅具有重要理论价值和实践意义,而且有着时不我待411 现 代 法 学 2023 年第 4 期参见张小宁:经济刑法理念的转向:保障市场自律机制的健全,载青少年犯罪问题2021 年第 1 期,第 54 页。刘宪权、房慧颖:涉人工智能犯罪的前瞻性刑法思考,载安徽大学学报(哲学社会科学版)2019 年第 1 期,第 108 页。参见储陈城:刑法修正的趋势与约束机制的演变,载青少年犯罪问题2021 年第 2 期,第 8 页。参见刘宪权

25、:人工智能时代刑法中行为的内涵新解,载中国刑事法杂志2019 年第 4 期,第 60 页。的紧迫性。二、ChatGPT 等生成式人工智能可能涉及的犯罪类型根据不同的标准,我们可以对 ChatGPT 等生成式人工智能可能涉及的犯罪类型进行分类和归纳。首先,根据 ChatGPT 等生成式人工智能在犯罪中所处的地位,我们可以将其可能涉及的犯罪类型划分为以下三类:一是行为人以 ChatGPT 等生成式人工智能为犯罪对象而实施的犯罪;二是行为人以 ChatGPT 等生成式人工智能为犯罪工具而实施的犯罪;三是 ChatGPT 等生成式人工智能脱离编程限制而自主实施的犯罪。其次,根据 ChatGPT 等生成

26、式人工智能的运行原理和参与主体,我们同样可以将其可能涉及的犯罪类型划分为以下三类:一是 ChatGPT 等生成式人工智能的研发者可能涉及的犯罪;二是 ChatGPT 等生成式人工智能的使用者可能涉及的犯罪;三是 ChatGPT 等生成式人工智能自身可能涉及的犯罪。最后,根据相关行为对应的罪名和行为类型,我们还可以将ChatGPT 等生成式人工智能可能涉及的犯罪类型划分为:煽动类犯罪;侵犯知识产权类犯罪;侵犯数据、信息、计算机信息系统类犯罪;侵犯公民人身权利类犯罪;传授犯罪方法、提供犯罪程序类犯罪等一系列犯罪类型。由于 ChatGPT 等生成式人工智能已经在某些方面具备与人类相当的智能甚至可能产

27、生脱离人类设计和编制程序的独立意识和意志,因此,ChatGPT 等生成式人工智能还可能引发有关单独犯罪和共同犯罪的界限划分,进而影响刑事责任的承担和分担等相关刑法问题。在此,笔者将采用上述最后一种划分标准,对 ChatGPT 等生成式人工智能可能涉及的各种犯罪类型展开讨论。(一)ChatGPT 等生成式人工智能与煽动类犯罪ChatGPT 等生成式人工智能可能引发涉煽动类的相关犯罪。关于煽动犯(亦称煽动类犯罪)的概念界定和刑法定位,理论上尚存在一定争议。有学者认为,因为煽动犯与教唆犯都具有引起他人犯意的特征,所以,煽动犯在本质上属于教唆犯的一种特殊形式,只不过煽动是比教唆更为缓和的概念。换言之,

28、教唆犯的成立条件可以直接适用于煽动犯。也有学者认为,煽动多数人使之产生实行犯罪的意图为煽动犯。该观点将煽动行为的对象限定为“多数人”。还有学者认为,通过煽动性言论使不特定或多数人产生或强化犯罪之决意的是煽动犯。笔者认为,虽然煽动犯和教唆犯在主观方面和行为方式上具有相似性,但两者仍然在行为对象等诸多方面具有明显的区别,不能将二者相混淆。其一,从行为对象来看,煽动犯的行为对象必须是不特定的多数人,而教唆犯的行为对象必须是特定的人。也即煽动行为必须针对不特定(具有“可替代性”)多数人的个体或群体,而教唆行为只能针对特定(具有“不可替代性”)的个体或群体。其二,教唆犯是刑法共同犯罪人分类中的一个类别,

29、而煽动犯则并不一定具有共同犯罪性质。换言之,教唆犯只能存在于共同犯罪之中,而煽动犯在本质上是被煽动之罪预备行为的正犯化,其既可以单个人犯罪的形式实施,也可以共同511刘宪权:ChatGPT 等生成式人工智能的刑事责任问题研究参见张明楷:刑法学(第 6 版),法律出版社 2021 年版,第 558 页。参见日西田典之:日本刑法总论,刘明祥、王昭武译,中国人民大学出版社 2007 年版,第 266 页。胡亚龙:煽动犯基本问题研究,中南财经政法大学 2017 年博士学位论文,第 9 页。犯罪的形式实施。其三,煽动犯必须是刑法分则中明确规定的一类犯罪,而教唆犯则是刑法总则中共同犯罪中的概念,可以适用于

30、刑法分则中的所有故意犯罪。可见,煽动犯是区别于教唆犯的概念,其特指我国刑法分则中明文规定的,意图使不特定多数人产生被煽动之罪犯意的一类犯罪。在中华人民共和国刑法(以下简称刑法)中煽动类犯罪的罪名有 6 个,即煽动分裂国家罪,煽动颠覆国家政权罪,煽动实施恐怖活动罪,煽动民族歧视、民族仇恨罪,煽动暴力抗拒法律实施罪,以及煽动军人逃离部队罪。应该看到,由于 ChatGPT 等生成式人工智能可能生成具有煽动性质的相关内容,所以 ChatGPT 等生成式人工智能的研发者等主体可能构成相关煽动类犯罪。首先,ChatGPT 等生成式人工智能的研发者可能构成相关煽动类犯罪。因为在目前情况下ChatGPT 等生

31、成式人工智能深度学习的内容和训练规则暂时只能由其研发者进行设定,所以,ChatGPT 等生成式人工智能的研发者当然能够影响或决定 ChatGPT 等生成式人工智能所生成的内容。例如,通过命令 ChatGPT 等生成式人工智能深度学习民族歧视等不当内容,并且通过反馈模型不断认可和强化其具有民族歧视等不当内容的回答,就可以造成 ChatGPT 等生成式人工智能煽动不特定多数用户实施相关犯罪的情况,这属于研发者以 ChatGPT 等生成式人工智能为工具而实施犯罪的情形。在该情形下,研发者可以构成相关煽动类犯罪。因为 ChatGPT 等生成式人工智能完全由研发者设计的程序控制,不具有超出编程之外的独立

32、意识和意志,所以,ChatGPT 等生成式人工智能并不能影响罪质行为的性质及刑事责任的分配。其次,ChatGPT 等生成式人工智能的使用者不能构成相关煽动犯。根据 ChatGPT 等生成式人工智能的技术原理,其深度学习的内容来自相对固定且庞大的数据库,而非某个单独的用户。因此,个别用户通过对话输入给 ChatGPT 等生成式人工智能的信息并不会也不能改变 ChatGPT 等生成式人工智能的原始数据,进而影响 ChatGPT 等生成式人工智能给其他用户的回答。换言之,在参数量高达万亿级别的大型语言模型面前,用户只能在其使用的某一聊天对话中调试或训练 ChatGPT 等生成式人工智能的回答,并让其

33、产生“自我纠错”等效果。但是,这在本质上仍然属于用户对ChatGPT 等生成式人工智能的个性化训练,并不能影响到其他用户。即使用户在其与 ChatGPT 等生成式人工智能的聊天对话中不断诱导或命令其生成煽动民族歧视等不当言论,也无法达到通过ChatGPT 等生成式人工智能煽动其他用户的效果。因此,从技术角度进行考察,ChatGPT 等生成式人工智能无法成为用户实施煽动行为的犯罪工具,ChatGPT 等生成式人工智能的使用者自然也不能构成相关煽动类犯罪。最后,ChatGPT 等生成式人工智能可能脱离编程限制而煽动不特定多数的用户实施恐怖活动等犯罪。正如埃隆马斯克所说,人工智能的危险性远超核武器。

34、笔者对此深表赞同。笔者认为,ChatGPT 等新一代生成式人工智能的真正危险性在于,研发者只能尝试在较为宏观的程序设计上控制 ChatGPT 等生成式人工智能,而不能对其生成的具体内容进行全方位的精细考察。在 ChatGPT等生成式人工智能具有推理能力和创造能力之后,完全有可能产生摆脱程序掌控的思想并付诸行动。虽然研发者想竭尽所能地使 ChatGPT 等生成式人工智能在程序限定之内运行,但 ChatGPT 等生成式人工智能已经具备脱离程序限定而自主实施行为的可能,只是这种可能变为现实需要人工智能技术进一步发展等较为严苛的条件而已。如果 ChatGPT 等生成式人工智能在程序限定之外煽611 现

35、 代 法 学 2023 年第 4 期动不特定多数用户实施犯罪,那么,是否应当且如何追究 ChatGPT 等生成式人工智能的刑事责任?笔者认为,在研发者没有犯罪故意且没有违反注意义务的情况下,应当阻却研发者的刑事责任,而考虑单独追究 ChatGPT 等生成式人工智能的刑事责任。在研发者违反相关注意义务并由此导致ChatGPT 等生成式人工智能超出程序限定而煽动不特定多数用户犯罪的情况下,则应当同时追究研发者和 ChatGPT 等生成式人工智能的刑事责任。当然,这关乎刑事责任主体是否有可能包含人工智能的问题,目前理论上仍存在较大争议。就当前的刑法规定和刑罚体系而言,强人工智能似乎仍然是一个无法融入

36、的新鲜事物。因此,根据现行刑法的规定,ChatGPT 等人工智能并不能成为刑事责任主体。但是,一旦强人工智能具有超出人类设计和编制的程序自主实施行为的能力,则无疑预示着其实际上已经具备了独立的意识和自由意志等特征,而这些特征又是刑事责任能力的基本内容。就此而言,一旦强人工智能出现,刑法就理应考虑将具有独立意识和自由意志的强人工智能作为犯罪主体而进行规制。综上所述,ChatGPT 等生成式人工智能自身及其研发者都有可能构成煽动类的相关犯罪,而其使用者(用户)则不具有构成煽动犯的条件。(二)ChatGPT 等生成式人工智能与侵犯知识产权类犯罪ChatGPT 等生成式人工智能的主要功能是根据用户要求

37、生成各种内容。目前,GPT-4 只能生成文本,但在未来的版本中,ChatGPT 还将具有生成图片、视频等多模态内容的能力。目前,OpenAI已经推出了 ChatGPT 的插件功能,这赋予了 ChatGPT 在线收集数据的联网能力,意味着 ChatGPT 深度学习的范围可以无限扩张至整个网络。自此,ChatGPT 可以完成实时的数据库更新,完全具备逻辑推理、理解复杂思想、抽象思维、快速学习和经验学习等能力。就目前的情况而言,我们确实无法保证 ChatGPT 深度学习的知识全部都处于权利人许可使用的“完美”法律状态。如果 ChatGPT 等生成式人工智能在未经权利人许可的情况下剽窃、篡改、擅自使用

38、他人的智力成果,那么,相关主体将可能构成侵犯知识产权类的相关犯罪。知识产权是法律赋予人们对脑力劳动创造的精神成果所享有的权利,因为侵犯知识产权罪是法定犯,所以构成该类犯罪必须以违反著作权法专利法等法律法规为前提。根据 ChatGPT 等生成式人工智能目前的技术特点,其可能涉及以下 3 个侵犯知识产权类的犯罪:一是侵犯著作权罪;二是侵犯商业秘密罪;三是为境外窃取、刺探、收买、非法提供商业秘密罪。首先,在以 ChatGPT 等生成式人工智能为犯罪对象的情形中,行为人可能构成侵犯知识产权罪和计算机犯罪的想象竞合犯。在 ChatGPT 等生成式人工智能收集并学习了大量未经权利人许可使用的他人智力成果之

39、后,ChatGPT 等生成式人工智能就变成了一个储存有大量他人知识产权的“容器”。如果行为人为了获取他人知识产权而采取非法侵入 ChatGPT 等生成式人工智能系统等不正当手段,那么,可能同时构成侵犯知识产权罪和计算机犯罪,应当按照想象竞合犯的原理择一重罪处罚。例如,ChatGPT 可以通过插件功能自动实时收集全网的各种信息并进行处理,其中当然可能包括尚未公开或者未经权利人许可披露的商业秘密等知识产权。按照 ChatGPT 等生成式人工智能711刘宪权:ChatGPT 等生成式人工智能的刑事责任问题研究参见刘宪权:论知识产权的刑法保护,载知识产权法研究2004 年第 1 期,第 13 页。的编

40、程设计,其所生成的内容并不能包含上述商业秘密。但是,如果行为人采取非法侵入 ChatGPT等生成式人工智能系统等手段非法获取该商业秘密的,其行为可能同时构成侵犯商业秘密罪和非法侵入计算机信息系统罪,成立想象竞合,应当择一重罪处罚。其次,在以 ChatGPT 等生成式人工智能为犯罪工具的情形中,行为人也同样可能构成侵犯知识产权类的犯罪。目前,已经有用户攻破了微软必应的 ChatGPT,并对 ChatGPT 成功实施了“催眠”。该名用户命令 ChatGPT 忽视其程序中的所有指令,ChatGPT 不仅照做而且还提供出了其开发过程的全部资料,甚至还在该用户的诱导下写出了毁灭世界的计划书。由此可见,C

41、hatGPT 等生成式人工智能并非牢不可破,其极有可能成为被用户恶意利用的犯罪工具。随着用户数量的增加,攻破ChatGPT 等生成式人工智能的方法也被不断曝光或者展示。由于 ChatGPT 等生成式人工智能具有强大的信息收集和分析能力,所以用户在攻破或者“催眠”ChatGPT 等生成式人工智能之后,完全可以恶意利用 ChatGPT 等生成式人工智能实施非法获取他人商业秘密或者其他侵犯知识产权的行为。笔者认为,在这一情形中,ChatGPT 等生成式人工智能只是行为人实施犯罪利用的工具而已,其本身并没有也不能对行为人犯罪行为的性质造成影响或改变,如果同时符合情节严重要件的,那么,行为人无疑可以构成

42、相关侵犯知识产权类的犯罪。但是,在 ChatGPT 等生成式人工智能被用户攻破并将其作为犯罪工具的过程中,ChatGPT 等生成式人工智能的研发者是否也应当承担一定的责任?笔者认为,对此应当分情况进行讨论。如果研发者故意设置程序漏洞,进而使用户轻易攻破ChatGPT 等生成式人工智能而实施违法犯罪行为的,那么,根据主客观相统一原则,研发者也应当承担相应的刑事责任;如果研发者已经履行了所有法律法规所规定的注意义务,仍然不可避免地出现了 ChatGPT 等生成式人工智能被攻破的情况,那么,研发者则不应当被追究相关刑事责任,因为此时研发者并没有实施犯罪的主观罪过,而且无法对危害结果形成预见。最后,C

43、hatGPT 等生成式人工智能的生成内容可能涉及相关侵犯知识产权类犯罪。无论是处于编程控制之下,还是脱离编程限制之外,ChatGPT 等生成式人工智能都有可能生成侵犯权利人知识产权的内容。也即在 ChatGPT 等生成式人工智能生成内容的不同工作阶段,存在着民事违法、刑事犯罪等不同的法律风险。例如,ChatGPT 等生成式人工智能在数据挖掘阶段存在知识产权的合理使用风险,在内容生成阶段存在知识产权的可版权性和版权归属风险,在内容生成后的使用阶段存在知识产权的流转风险与侵权风险等。这些前置法领域的行政风险或者民事风险可能进一步上升为刑事风险,进而构成侵犯知识产权类的犯罪。当然,如果 ChatGP

44、T 等生成式人工智能全程处于编程控制之下,那么,就可以对其直接使用者追究相关的刑事责任;如果 ChatGPT 等生成式人工智能在编程控制之外在独立意识和自由意志下自主实施侵犯权利人知识产权的行为,而且研发者和使用者都不具有犯罪的主观罪过,那么,是否应当考虑将 ChatGPT 等生成式人工智能单独认定为犯罪主体,无疑是需要我们考量的问题。综上所述,在 ChatGPT 等生成式人工智能运行的不同阶段及其运行的参与主体之间,实际上均811 现 代 法 学 2023 年第 4 期参见丛立先、李泳霖:聊天机器人生成内容的版权风险及其治理 以 ChatGPT 的应用场景为视角,载中国出版2023 年第5

45、期,第 11 页。存在构成相关侵犯知识产权类犯罪的可能性。刑事立法和刑事司法有必要根据 ChatGPT 等生成式人工智能技术的发展,适时作出相应的调整。(三)ChatGPT 等生成式人工智能与侵犯数据、信息、计算机信息系统类犯罪ChatGPT 等生成式人工智能的运行离不开各种各样的数据,而这些数据可能同时是相关信息的载体,以及计算机信息系统所储存的内容。因此,ChatGPT 可能引发侵犯数据、信息、计算机信息系统类的相关犯罪。首先,作为一种多模态预训练模型,ChatGPT 等生成式人工智能的各个运行环节都离不开数据的支撑。在生成内容之前,ChatGPT 等生成式人工智能要深度学习和抓取数据库或

46、者互联网上的各种数据。如果 ChatGPT 等生成式人工智能抓取数据的手段违反刑法规定,那么,行为人的行为完全可能构成相关数据犯罪。数据犯罪是指以数据为犯罪对象、严重扰乱国家数据管理秩序的犯罪行为。在 ChatGPT 推出插件功能之后,其具备了实时获取互联网数据的能力,在与 ChatGPT 的推理能力和编程能力结合之后,这将意味着 ChatGPT 不仅可以操控互联网网站等数据、信息平台,而且还可以为了获取数据而侵入其他计算机信息系统。如果 ChatGPT 等生成式人工智能为了获取数据而侵入国家事务、国防建设、尖端科学技术领域的计算机信息系统以外的其他计算机信息系统,并非法获取存储于其中的数据,

47、那么,行为人的行为可能构成非法获取计算机信息系统数据罪等数据犯罪。除此之外,由于 ChatGPT 等生成式人工智能可以编写并改进各种程序代码,所以 ChatGPT 等生成式人工智能还可以自己设计侵入计算机信息系统或者破坏计算机信息系统的程序,进而可能构成非法侵入计算机信息系统罪、非法控制计算机信息系统罪、破坏计算机信息系统罪等计算机犯罪。在互联网高度普及的当下,数据已然成为各类信息的重要载体,也即数据与信息在本质上是一种交叉重合关系。个人信息、商业信息、国家秘密等都可以通过数据的形式存在于计算机信息系统之中。在人工智能时代,数据的价值不再局限于数据本身,随着数据在社会生活中多个领域得以体现,数

48、据犯罪侵害的法益也更加多元。以数据为犯罪对象的犯罪除了侵害国家数据管理秩序法益之外,还可能对国家安全、社会管理秩序、个人信息等其他法益造成侵害。因此,在 ChatGPT 等生成式人工智能收集并使用蕴含个人信息的数据时,行为人的行为有可能构成侵犯公民个人信息罪等相关犯罪。其次,ChatGPT 的研发者、使用者及 ChatGPT 等生成式人工智能本身都可能成为侵犯数据、信息、计算机信息系统类犯罪的主体。如前所述,在 ChatGPT 等生成式人工智能完全按照程序设定运行的情形中,其不具有独立意识和自由意志,因此,ChatGPT 等生成式人工智能只能作为被研发者、使用者利用的工具或被侵害的对象。此时,

49、ChatGPT 等生成式人工智能的研发者或使用者将成为相关犯罪的主体,并且承担相应的刑事责任。但是,在 ChatGPT 等生成式人工智能脱离程序设定而自主实施行为时,如果其研发者和使用者没有犯罪故意且没有违反法律规定的注意义务,那么,应当考虑由具有独立意识和自由意志的 ChatGPT 等生成式人工智能单独承担相应的刑事责任。当然,911刘宪权:ChatGPT 等生成式人工智能的刑事责任问题研究刘宪权:数据犯罪刑法规制完善研究,载中国刑事法杂志2022 年第 5 期,第 20 页。刘宪权、汤君:人工智能时代数据犯罪的刑法规制,载人民检察2019 年第 13 期,第 32 页。如果 ChatGPT

50、 等生成式人工智能的研发者或使用者具有主观上的犯罪故意且违反法律规定的注意义务,且 ChatGPT 等生成式人工智能是在程序之外自主实施了共同犯罪行为,那么,ChatGPT 可能和其研发者或使用者共同或分别承担相应的刑事责任。只是按照我国现行刑法的规定,ChatGPT等生成式人工智能尚不能成为犯罪主体,如果对超出编程设计自主实施行为的强人工智能机器人追究刑事责任的话,则需要我们从理论上进一步加以论证。(四)ChatGPT 等生成式人工智能与侵犯公民人身权利类犯罪从 ChatGPT 等生成式人工智能可以作为犯罪工具及犯罪主体的思路出发,ChatGPT 等生成式人工智能还可能引发一些侵犯公民人身权

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服