收藏 分销(赏)

生成式人工智能内容风险的法律规制.pdf

上传人:自信****多点 文档编号:711060 上传时间:2024-02-19 格式:PDF 页数:14 大小:1.47MB
下载 相关 举报
生成式人工智能内容风险的法律规制.pdf_第1页
第1页 / 共14页
生成式人工智能内容风险的法律规制.pdf_第2页
第2页 / 共14页
生成式人工智能内容风险的法律规制.pdf_第3页
第3页 / 共14页
亲,该文档总共14页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、西安交通大学学报(社会科学版)2 0 2 3年9月 第4 3卷 第5期D O I:1 0.1 5 8 9 6/j.x j t u s k x b.2 0 2 3 0 5 0 1 4【收稿日期】2 0 2 3-0 5-0 8。【修回日期】2 0 2 3-0 6-1 4。【基金项目】国家社会科学基金重点项目(1 8 VH J 0 1 1)。【作者简介】姚志伟(1 9 8 1),男,广东财经大学法治与经济发展研究所研究员,教授。参见A r t i c l e 3(1 b)o f p r o p o s a l f o r a r e g u l a t i o no f t h e e u r o

2、p e a np a r l i a m e n t a n do f t h e c o u n c i l l a y i n gd o w nh a r m o n i s e d r u l e s o na r t i f i c i a l i n-t e l l i g e n c e(A r t i f i c i a l I n t e l l i g e n c eA c t)a n da m e n d i n gc e r t a i nu n i o nl e g i s l a t i v ea c t s-f o u r t hp r e s i d e n c

3、yc o m p r o m i s et e x tE B/O L.2 0 2 3-0 4-0 2.h t-t p s:/a r t i f i c i a l i n t e l l i g e n c e a c t.e u/w p-c o n t e n t/u p l o a d s/2 0 2 2/1 0/A I A-C Z-4 t h-P r o p o s a l-1 9-O c t-2 2.p d f.本文中的人工智能生成内容是指生成式人工智能所生成的内容,为避免烦琐,省略了“生成式”三个字。生成式人工智能内容风险的法律规制姚志伟,李卓霖广东财经大学 法治与经济发展研究所,广

4、东 广州5 1 0 3 2 0开放科学(资源服务)标识码(O S I D)【摘要】生成式人工智能生成的内容会给国家安全、公共安全和私人权益带来风险。中国现有的规制在人工智能生成内容披露、内容责任主体以及投诉机制方面尚存在不足,可以从以下方面进行完善:披露方面应明确显性披露和隐性披露两套体系,服务提供者承担隐性披露义务,使用者承担显性披露义务;内容责任主体方面,不应简单地将服务提供者定性为内容提供者,应探索适应生成式人工智能特点的安全港机制,并且该机制应与使用者的内容责任兼容;投诉机制方面,要求服务提供者就用户投诉内容采取针对性阻止措施并不合理,可以考虑两套方案进行改进,一是将投诉与针对性阻止措

5、施脱钩,二是大幅度提高就投诉采取针对性阻止措施的门槛。基于此,在制定政策时,应考虑产业的国际竞争力问题,采取对风险本身进行分类的规制路径,从而实现促进产业健康发展和防范风险的双重目标。【关键词】生成式人工智能;内容风险;C h a t G P T;信息披露;内容责任;安全港【中图分类号】D 9 2 2.1 6 【文献标识码】A【文章编号】1 0 0 8-2 4 5 X(2 0 2 3)0 5-0 1 4 7-1 4一、问题提出2 0 2 3年4月2 8日,中共中央政治局召开会议分析研究当前经济形势和经济工作,会议指出,“要重视通用人工智能发展,营造创新生态,重视防范风险”1。这句话点出了规制通

6、用人工智能的双重政策目标:营造良好环境,促进产业健康发展和防范风险。通用人工智能(a r t i f i c i a l g e n e r a l i n t e l l i g e n c e,A G I)在欧盟正在拟制的 人工智能法案(A r t i f i c i a l I n t e l l i g e n c eA c t)中也被称为“g e n e r a l p u r p o s eA Is y s t e m”,其定义为:人工智能系统被提供者设计成执行通常适用的功能,例如图像和语音识别、音频和视频生成、模式检测、问题回答、翻译等,通用人工智能系统可以在多种情境中使用,并集

7、成到其他多个人工智能系统中。在当前技术条件下,生成式人工智能(g e n e r a t i v e a r t i f i c i a l i n t e l l i g e n c e)初步具备了通用人工智能的雏形。生成式人工智能服务管理办法(征求意见稿)第二条第二款指出,生成式人工智能是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。2 0 2 2年以来,生成式人工智能成为全球科技产业发展的焦点,代表性的域外产品是美国O p e n A I公司的C h a t G P T,在国内则以百度的“文心一言”和阿里的“通义千问”等为代表。生成式人工智能可以跨领域自主完成文本、

8、图片、视频、代码生成以及翻译、摘要等多方面任务,初步展现出通用人工智能的强大能力,是现阶段通用人工智能的主要形态。生成式人工智能一方面以其通用性的能力提升社会各行业的效率,有效提高生产力;另一方面,人工智能生成内容也会给国家安全、公共安全和私人权益带来741西安交通大学学报(社会科学版)2 0 2 3年9月 第4 3卷 第5期诸多风险。本文中将人工智能生成内容所产生的风险,称之为人工智能生成内容风险或生成式人工智能内容风险。就该风险的规制,国内外都还处在探索初期。欧盟正处在立法程序中的 人工智能法案 是以传统人工智能为主要规制对象,但是最新的草案中已经加入了专门规制生成式人工智能的条款。美国和

9、英国分别发布了 人工智能权利法案的蓝图(B l u e p r i n tf o ra nA IB i l l o fR i g h t s)、人工智能风险管理框架(A r t i f i c i a lI n t e l l i g e n c eR i s kM a n a g e m e n tF r a m e w o r k)和 支持创新的人工智能监管方式(AP r o-i n n o v a t i o nA p p r o a c ht oA IR e g u l a t i o n),提出了人工智能治理的核心原则。上述三个文件都不是正式立法,是为后续立法做的准备。虽然美国有个别

10、州的法律涉及了深度合成问题,但也并非针对生成式人工智能,目前美国和英国都尚未有专门规制生成式人工智能的法律出台2。与之相比,中国立法已经走在了世界前列。中国有已经生效的 互联网信息服务深度合成管理规定(以下简称 深度合成管理规定)可以对生成式人工智能内容风险进行较为全面的规制。2 0 2 3年4月,国家互联网信息办公室发布了 生成式人工智能服务管理办法(征求意见稿)(以下简称 生成式人工智能管理办法意见稿)专门针对生成式人工智能进行规制。在上述背景下,本文以人工智能生成内容风险为中心,分析中国现行法和 生成式人工智能管理办法意见稿 对人工智能生成内容风险规制的现状及不足,并在此基础上探讨兼顾产

11、业健康发展和风险防范双重目标的监管方案。二、人工智能生成内容的主要风险生成式人工智能可以分析并模仿被投喂的训练数据资源,生成文本、图片、音频、视频、代码等内容,如果使用不当,其生成的内容将可能对国家安全、公共安全和私人权益产生风险。这些风险很大程度上来源于生成式人工智能被用于“深度伪造”(d e e p f a k e)的能力。“深度伪造”是指使用人工智能对图像、声音、视频进行篡改,生成真假难辨的伪造图像、声音或者视频。最典型的“深度伪造”是“A I换脸”3。“深度伪造”的受害人可以是普通人、明星、企业负责人、政府的重要官员,等等。除了用于伪造图像、声音和视频外,生成式人工智能还可以用来高效率

12、地生成真假难辨的文本信息。上述伪造的信息都可以通过社交媒体等形式进行广泛传播,从而产生危害。(一)对国家安全和公共安全带来的风险1.干扰国家政治抉择,挑拨国家间的关系生成式人工智能具有快速模仿某种语言风格并合成多种类型信息的能力,若被用于编造政治煽动性信息,其效率将会远高于纯人工操作,进而快速且有指向性地煽动社会民众情绪,实现干扰甚至左右国家政治抉择的目的。生成式人工智能的“深度伪造”能力还可以被用来挑拨国家间的关系,造成国际政治危机。例如,2 0 1 7年卡塔尔国家官方推特账号被黑客攻击后,散播了卡塔尔元首关于伊朗和伊斯兰教的虚假讲话,引发了海湾邻国的愤怒,该事件与其后的中东外交危机也有一定

13、的关系3。如果该事件中使用“深度伪造”技术,其效果会更加逼真,其后果可能更严重。2.危害公共秩序和公共安全人工智能的“深度伪造”能力,使得其极容易被用于伪造危害公共秩序和公共安全的虚假信息。杭州某小区群内一业主尝试用C h a t G P T生成了一段关于杭州即将取消限行的新闻稿,由于文章的语言风格与官方稿件高度相似,以致该信息被其他信以为真的业主在网络上广泛传播,造成了不良影响。在公共安全方面,人工智能生成虚假内容的泛滥,会让公众对国家机关和新闻媒体的信任度下降,产生“信任衰退效应”。如果公众身边充斥着人工智能生成的虚假内容,公众难以判断以国家机关和新闻媒体名义发布的信息是否真实,则会对这些

14、信息的真实性产生普遍怀疑,这就是所谓的“假作真时真亦假”。这种普遍的怀疑会严重损害国家机关和新闻媒体的公信力4,而这种公信力对维护公共秩序和公共安全十分关键,特别是在社会遭受地震等突发危机时。由此,人工智能生成虚假内容的能力,可以造成“信任衰退效应”,从而危害公共秩序和公共安全。(二)侵犯个人名誉和人身安全的风险生成式人工智能具有生成与现实相结合的虚假信息的能力,如果被恶意使用,将可能会通过生成并传播针对个人的虚假文本、图片、音视频信息使某人“实施”其在现实中并未实施过的行为,由此可能对个人的名誉造成严重影响,同时在一些情况下还可能会导致被造谣主体在现实中被他人攻击报复而陷入危险中。其中一种典

15、型的风险是“色情报复”(r e v e n g ep o r n),即通过公841C O U L T E RM,M U K H E R J E ES.B e h i n dE Ul a w m a k e r sc h a l l e n g et o r e i n i nC h a t G P Ta n d g e n e r a t i v eA IE B/O L.2 0 2 3-0 5-0 3.h t t p s:/f i n a n-c i a l p o s t.c o m/p m n/b u s i n e s s-p m n/b e h i n d-e u-l a w m a

16、k e r s-c h a l l e n g e-t o-r e i n-i n-c h a t g p t-a n d-g e n e r a t i v e-a i.国家互联网信息办公室关于 生成式人工智能服务管理办法(征求意见稿)公开征求意见的通知E B/O L.2 0 2 3-0 4-1 2.h t t p:/w w w.c a c.g o v.c n/2 0 2 3-0 4/1 1/c_1 6 8 2 8 5 4 2 7 5 4 7 5 4 1 0.h t m.需要说明的是,人工智能所产生的风险中,内容风险仅是其中一种。另外还有企业商业秘密和个人信息泄露的风险(非经生成内容而泄露)

17、、生成式人工智能大规模取代人类工作给社会稳定性带来的风险,甚至是人工智能持续强大后,人类失去对其控制的风险等。本文仅研究人工智能生成内容的风险。谨防使用C h a t G P T的网友成为谣言代理人E B/O L.2 0 2 3-0 3-2 9.h t t p s:/w w w.c r e d i t c h i n a.g o v.c n/h o m e/z h u a n t i z h u a n l a n/f e n g x i a n t i s h i/x i n y o n g f e n g x i a n d a j i a t a n/2 0 2 3 0 2/t 2 0

18、2 3 0 2 2 0_3 1 0 9 7 9.h t m l.MU R R A YP.W h a ti sr e v e n g ep o r n?E B/O L.2 0 2 3-0 4-0 6.h t t p s:/b r i t t o n t i m e.c o m/2 0 2 2/1 2/0 8/w h a t-i s-r e v e n g e-p o r n/.h t t p:s k x b.x j t u.e d u.c n姚志伟,李卓霖 生成式人工智能内容风险的法律规制开传播被害人身体的裸露照片、视频等不雅信息损害被害人的名誉以实现报复目的。色情报复行为在人工智能技术出现以前

19、就已经存在,但具有较高的技术门槛,仅限于技术专家才可以实施。然而,生成式人工智能大大降低了实施色情报复行为的门槛,即使是普通人,甚至是和受害人素未谋面的人也可以使用“深度伪造”技术对受害人的现实照片进行处理,通过“A I换脸”等技术将受害人的脸部与色情影片女演员的脸部进行替换3,从而生成现实中不存在的裸照、色情视频等内容。色情报复严重侵害了受害人的名誉,使受害人无法获得稳定的就业环境和经济支持,还会诱导更多人对其进行跟踪、威胁和延续性暴力。此外,针对个人名誉的风险还体现在生成式人工智能输出的关于个人的错误信息上。一位刚当选的澳大利亚市长发现C h a t G P T将其描述为犯有行贿罪并被判处

20、了3 0个月监禁的人,然而实际上他并未犯有上述罪行,恰恰相反他还是2 1世纪初帮助揭露一项国际贿赂丑闻的检举者,该市长决定给予O p e n A I公司2 8天时间纠正该错误,否则将提起诉讼,这可能会是全球第一起针对生成式人工智能诽谤的诉讼。因此,生成式人工智能对于个人名誉和人身安全造成的风险不容忽视。(三)侵犯企业权益的风险生成式人工智能的“深度伪造”能力有可能被用于生成虚假的企业负责人的公开声明、企业公告等文本、音视频信息,向社会传达关于企业的错误信息,由于人工智能生成内容和网络信息传播具有高效率和大范围的特点,企业负责人的澄清速度很难及时跟上虚假信息的生成和传播速度,因此社会公众和相关投

21、资者容易被虚假信息误导而做出错误决策,从而对受害企业的声誉和经济利益造成沉重打击5。例如,有关F a c e b o o k(现已改名M e t a)的创始人兼首席执行官M a r kZ u c k e r b e r g的一段“深度伪造”视频在I n s t a g r a m上流传,合成的M a r kZ u c k e r b e r g在视频的讲话中表示“想象一下,一个人完全控制了数十亿人被盗的数据:他们所有的秘密、他们的生活、他们的未来。谁控制了数据,谁就控制了未来”,即他在视频中“承认了”数据泄露的阴谋。企业的首席执行官的发言在一定程度上具有体现企业态度的效果5,如果浏览到该条视频

22、的用户信以为真,并加以传播,那么F a c e b o o k公司的声誉必然会受到严重影响,进而影响该公司的经济利益。三、中国对生成式人工智能内容风险的规制现状及其不足 当前,世界各国针对生成式人工智能领域的立法尚在起步探索阶段,中国的相关立法已经走在了世界前列。在法律层面,中华人民共和国民法典 第一千零一十九条第一款规定,任何组织和个人不得通过利用信息技术手段伪造等方式侵害他人的肖像权,体现了对使用“深度伪造”技术生成虚假信息侵害他人名誉行为的规制。中国对生成式人工智能的立法主要体现在部门规章层面。从已生效的部门规章来看,最主要的是 深度合成管理规定,该规定从技术的角度采用了“深度合成”的概

23、念,即利用算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术。广义的“深度合成”概念可以涵盖生成式人工智能的技术,从而使得该规定的规制范围涵盖了人工智能内容。深度合成管理规定 之外,互联网信息服务算法推荐管理规定(以下简称 算法推荐管理规定)和 网络音视频信息服务管理规定(以下简称 网络音视频管理规定)两部法规中都有条款对人工智能生成内容的披露进行了规定。网络音视频管理规定 还规定了服务提供者和使用者不得基于深度学习技术制作、发布和传播虚假新闻信息,服务提供者基于深度学习技术提供服务时要通过安全评估,部署非真实音视频鉴别技术以及建立辟谣机制,从而也与生成式人工智能内容的规制具有了相关性。

24、在上述已生效的法律法规之外,中国已经有专门针对生成式人工智能的立法草案。2 0 2 3年4月1 1日,国家互联网信息办公室发布了 生成式人工智能管理办法意见稿,规定人工智能生成内容不得危害国家政权、社会主义制度以及国家安全、公共安全、社会秩序、公序良俗,不得损害个人名誉以及其他合法权益,不得侵犯知识产权,不得使用人工智能生成虚假信息以及针对个人的歧视性内容,且人工智能生成内容应当根据 深度合成管理规定 得到有效标识,此外,生成式人工智能服务的提供者发现生成内容不当时,应当在3个月内通过优化模型有效防止不当内容的再次生成。该意见稿是中国首个针对生成式人工智能的专门立法,在全球范围内941A R

25、K OA,R A S C H M.N u d i f ym e:t h el e g a l i m p l i c a t i o n so fA I-g e n e r a t e d r e v e n g ep o r nE B/O L.2 0 2 3-0 3-2 9.h t t p s:/w w w.j d-s u p r a.c o m/l e g a l n e w s/n u d i f y-m e-t h e-l e g a l-i m p l i c a t i o n s-o f-a i-2 3 4 8 2 1 8/.P R A K A S H P.C h a t G P

26、 Tf a l s e l ya c c u s e dam a y o ro fb r i b e r yw h e nh ew a s a c t u a l l y t h ew h i s t l e b l o w e r:n o wh ew a n t s t os u e i nw h a tc o u l db et h ef i r s td e f a m a t i o nc a s ea g a i n s tab o tE B/O L.2 0 2 3-0 4-0 8.h t t p s:/f o r t u n e.c o m/2 0 2 3/0 4/0 5/c h

27、a t g p t-f a l s e l y-a c c u s e d-a u s-t r a l i a n-m a y o r-b r i b e r y-o p e n a i-d e f a m a t i o n/a m p/.S C H E N KM.A r t:n o tar e a lv i d e oo fM a r kZ u c k e r b e r gr e-v e a l i n g t h et r u t ha b o u tF a c e b o o kE B/O L.2 0 2 3-0 5-0 3.h t t p s:/l e a d s t o r i

28、e s.c o m/h o a x-a l e r t/2 0 1 9/0 6/f a k e-n e w s-4 1-l i k e s-1-c o m m e n t s-b i l l-p o s t e r s-b i l l-p o s t e r s-u k-o n-i n s t a g r a m-m a r k-z u c k e r b e r g-r e v e a l s-t h.h t m l.参见 算法推荐管理规定 第九条第一款,网络音视频管理规定 第十一条第一款、第十二条第二款。参见 网络音视频管理规定 第十至十三条。参见 生成式人工智能管理办法意见稿 第四、七、

29、十、十二、十五、十六和十八条。西安交通大学学报(社会科学版)2 0 2 3年9月 第4 3卷 第5期也是罕见的前沿立法。中国对生成式人工智能内容风险规制的立法已经走在世界前列,但是生成式人工智能正处于产业初期,内容风险规制面临的新问题非常多,很难通过套用既有法律框架的方式加以解决。同时,可供参考的域外成熟经验也很少。这些因素都导致对人工智能内容风险规制的困难以及立法的难度增大。在上述背景下,本文将围绕中国在立法上对人工智能生成内容风险规制的三个主要问题进行研讨,并在此基础上分析其不足之处。(一)披露的规定及其不足所谓披露,通常是指通过一定的标识方法,向外界特别是向公众揭示特定的内容是由人工智能

30、生成而非人类创造。披露可以使外界区分人工智能生成内容和人类创造的内容,只有先将人工智能生成内容区分出来,才能对内容风险进行规制。从这个意义上而言,披露是人工智能生成内容风险规制的基础性方法。披露可以分为显性披露和隐性披露,显性披露是指用人类肉眼可感知的方法进行披露,例如在人工智能生成内容的某个位置标明“人工智能生成”,从而让看到该内容的受众产生认知。隐性披露是指采用人类肉眼不可见但使用技术手段可以识别的方式进行标注。现行法关于披露的规定可见于 深度合成管理规定 算法推荐管理规定 和 网络音视频管理规定。其中,深度合成管理规定 关于披露的规定是最详细的,其具有以下特点:其一,披露的义务承担主体是

31、深度合成的服务提供者。使用者不需要主动承担披露义务,仅有不破坏披露标识的义务。其二,深度合成管理规定 可以被认为规定了显性披露和隐性披露。显性披露规定于第十七条,又分为两种情况,对于可能导致公众混淆和误认的,深度合成服务提供者应自行进行显性披露。除此以外的情况,应提供显性标识功能并提示使用者可以进行披露。第十六条要求深度合成服务提供者采用技术手段添加不影响用户使用的标识。此处的“不影响用户使用”可能有两种解释:一种解释是该标识肉眼可见,但是没有遮挡用户使用深度合成服务生成或者编辑的信息内容;另外一种解释是前文所述的隐性标识,即该标识肉眼不可见,但是使用特定的检测程序可以识别。笔者认为第二种理解

32、更为适宜。一是因为第十七条规定的是“显著标识”。第十六条与第十七条是并列的,不可能再规定“显著标识”,而应该是相对应的隐性标识。二是因为第十六条强调了使用技术手段,并不影响用户使用。这里的不影响用户使用可以理解为不进行显著标识,因为显著标识虽然可以提示用户内容是由人工智能生成,但确实可能妨碍用户的正常使用。反之,采取隐性披露既可以保障对人工智能生成内容的有效识别,又不至于影响用户的正常使用,符合本条规定的设立目的。算法推荐管理规定 为算法推荐服务提供者设定了一定的义务,其在发现未做显著标识的合成信息时,应当做出显著标识后,才可继续传播。网络音视频管理规定 要求,网络音视频信息服务提供者和网络音

33、视频信息服务使用者,对采用深度学习等方式生成的非真实音视频信息进行显著标识,同时还要求网络音视频信息服务提供者部署非真实音视频信息的检测技术。现行法之外,作为立法草案的 生成式人工智能管理办法意见稿 以引致条款的方式采用了 深度合成管理规定 的披露方案。总结上述法规关于披露的规定可以发现:第一,披露义务主要落在服务提供者上,仅 网络音视频管理规定 规定了使用者的披露义务;第二,由于 生成式人工智能管理办法意见稿 完全采用了 深度合成管理规定 的披露方案,因此 深度合成管理规定 关于披露的规定很有可能成为生成式人工智能内容披露的主流方案;第三,算法推荐管理规定 和 网络音视频管理规定 规定的都是

34、显性披露义务,要求不区分内容一概进行显性披露,深度合成管理规定 的规定则不明确。其第十七条规定服务提供者在可能造成公众混淆和误认的情况下,要进行显性披露。但除此之外的情况,是否需要进行显性披露,则不明确,存在两种理解:一种理解是,不造成公众混淆和误认的情况下,也要进行显性披露。因为第十七条规定了在这样的情况下,服务提供者需要为使用者提供显性标识功能并提示使用者进行标识。既然规定了为使用者提供标识功能并051欧盟的 人工智能法案 并非专门针对生成式人工智能,只是在文本修订中加入规制生成式人工智能的内容。虽然美国部分州对于“深度伪造”行为在伪造色情信息、干扰政治选举方面采取了个别有针对性的州立法活

35、动,但是截至2 0 2 3年5月5日,暂未发现美国有专门针对生成式人工智能的立法行动。G A R L I NB.A Ii n v i s i b l ew a t e r m a r k i n g:h o wt h eC h a t G P Tw a t e r m a r kw o r k sE B/O L.2 0 2 3-0 4-0 2.h t t p s:/v i s t a s o c i a l.c o m/i n-s i g h t s/a i-i n v i s i b l e-w a t e r m a r k i n g-h o w-t h e-c h a t g p t-

36、w a t e r m a r k-w o r k s/.参见 深度合成管理规定 第十六、十七条。参见 深度合成管理规定 第十八条,该条规定任何组织和个人都不得采用技术手段删除标识,其中也包含了使用者不得删除。此外,第十七条第二款规定了深度合成服务提供者应对使用者提供显性标识功能,并提示使用者进行标识,但并未规定使用者有义务进行标识。例如,一个公司员工利用生成式人工智能生成了给客户发送的邮件。如果上述情景下要求在邮件内容上标注“A I生成”,则势必影响客户对该公司的看法,从而导致这种正常使用遇到障碍和困难。国家互联网信息办公室网络管理技术局局长于永河在解读文章中指出了 深度合成管理规定 规定隐

37、性披露和显性披露之目的:隐性披露可以“溯源追踪深度合成信息流向,及时阻断有害合成信息传播”;显性披露则“防止公众混淆或误认,提升公众识别合成内容的能力,降低利用合成信息进行造谣、诈骗等违法行为的风险”。参见 算法推荐管理规定 第九条。参见 网络音视频管理规定 第十一条第一款、第十二条第一款。此处的“现行法”是指 深度合成管理规定 算法推荐管理规定 和 网络音视频管理规定,下文同。参见 生成式人工智能管理办法意见稿 第十六条。h t t p:s k x b.x j t u.e d u.c n姚志伟,李卓霖 生成式人工智能内容风险的法律规制进行提示,可以合理推论出使用者应该使用该功能进行标识。另一

38、种理解是不造成公众混淆和误认的情况下,不需要进行显性披露,因为 深度合成管理规定 未规定使用者的显性披露义务。如果按照第一种理解,则 深度合成管理规定 同样要求不区分内容一概进行显性披露。但按照第二种理解,则是 深度合成管理规定 要求的显性披露仅限于可能导致公众混淆和误认的情况。此外,深度合成管理规定 第十六条也可以被理解为规定了隐性披露。上述披露的规定虽然已经比较细致,但仍存在以下一些不足:其一,首要的不足是对使用者的显性披露义务和法律责任规定不足。正如前文所言,披露义务主要落在服务提供者上,仅 网络音视频管理规定 规定了使用者的披露义务。但是,对生成内容的公开发布和传播,特别是在社交媒体传

39、播,往往是使用者而非服务提供者。现行法的意图是主要由服务提供者在内容生成时进行显性标识。为实现这个意图,还规定包括使用者在内的任何组织和个人不得采用技术手段去删改、隐匿标识。但是,在实践中,这种限制至少在文本信息上太容易绕过。对于生成式人工智能生成的文本信息,使用者在使用时通常采用文本复制的方法拷贝出来然后进行发布和传播,这是极为常规的操作。在这个操作中,文本中的显性标识往往很容易被去除掉,甚至不需要借助技术手段。同时,深度合成管理规定 也未就使用者在披露方面设置任何法律责任,使用者去除显性标识也不需要承担法律责任。这两个因素相加,极有可能导致使用者去除显性标识的行为极其普遍,从而使人工智能生

40、成内容得不到有效披露,立法目的不能实现。其二,隐性披露的规定尚不够明确。隐性披露最重要的特点是使用人的肉眼不可见的隐性标识,从而不影响用户的正常使用。深度合成管理规定 第十六条仅规定不影响用户使用,但没有明确指出标识应该是肉眼不可见的。虽然从对上下条文的整体解释中可以推出这点,但是法律解释往往是有争议的,特别是对新规定的解释。因此,在立法上进行明确,避免后续的争议是更可取的选择。其三,未明确规定显性披露的豁免范围,使得显性披露的范围太大,严重影响到生成式人工智能在一些领域的正常使用。如前所述,算法推荐管理规定 和 网络音视频管理规定 都规定要求所有生成内容都进行显性披露,深度合成管理规定 的规

41、定虽然不明确,但也可以做这样的解读。要求所有生成内容都进行显性披露,会对很多正常使用生成式人工智能的行为造成严重妨碍。较为典型的例子是父母使用生成式人工智能,设计制作给女儿的朋友派发的生日聚会邀请函。如果在邀请函上采用显著方式标识内容是由人工智能生成的,可能会让朋友觉得邀请者缺乏诚意从而产生不良印象。又比如使用生成式人工智能提高工作效率,撰写与商业伙伴的问候邮件信息,如果进行显著标识,极可能让客户认为发信人不够重视彼此之间的关系,产生损害商业合作伙伴信任关系的风险。在这两个例子中,人工智能生成内容的使用是低风险的,很难对国家安全和公共安全产生危害,如果一概要求以显著标识的方式进行披露反而会影响

42、发送内容者和接收内容者之间的关系,进而严重妨碍生成式人工智能在相应领域的正常使用。其四,深度合成管理规定 第十七条第一款第一项还要求对生成式人工智能编辑的信息也进行显著标识披露,这个规定的合理性同样值得商榷。编辑往往仅是格式、语法方面的调整,基本不会产生新的实质性内容,编辑并不会带来新的风险,进行披露以防范风险的必要性很小。同时,随着生成式人工智能编辑效率的提升,人们在写作中使用生成式人工智能进行编辑会越来越普遍,一概要求披露,会导致需要披露的范围太大。(二)生成内容的责任主体规定不足人工智能生成内容的责任主体问题,即由谁来承担防范人工智能生成违法和不良内容的责任,以及人工智能生成违法和不良内

43、容后由谁来承担责任的问题。本文对现行法及 生成式人工智能管理办法意见稿 就此问题的规定分析如下:第一,责任主体主要是服务提供者。深度合成管理规定 第七条规定服务提供者应当落实“信息安全主体责任”,生成式人工智能管理办法意见稿 第五条规定,服务提供者承担内容生产者的责任。从法律责任来看,深度合成管理规定 为服务提供者和技术支持者规定了法律责任,生成式人工智能管理办法意见稿仅为服务提供者规定了法律责任。151此处的使用者是指使用生成式人工智能服务生成内容的主体,下同。此处的服务提供者是指生成式人工智能服务提供者,下同。参见 深度合成管理规定 第十七条。当然,如果合成的内容不会导致“公众混淆或者误认

44、”,服务提供者仅需提供显著标识功能,并提示使用者进行标识即可。如果服务提供者采用水印技术进行显著标识,水印往往不会被拷贝出来。如果采用在文本某个位置加一句“本内容系A I生成”,使用者拷贝出来后也极容易删除掉。HA C K E RP,E N G E LA,MA U E RM.R e g u l a t i n gC h a t G P Ta n do t h e r l a r g eg e n e r a t i v eA Im o d e l sE B/O L.(2 0 2 3-0 5-1 2)2 0 2 3-0 6-3 0.h t t p s:/d o i.o r g/1 0.4 8 5

45、 5 0/a r X i v.2 3 0 2.0 2 3 3 7.参见 深度合成管理规定 第七条。生成式人工智能管理办法意见稿 第五条规定:利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。参见 深度合成管理规定 第二十二条。参见 生成式人工智能管理办法意见稿 第二十条。西安交通大学学报(社会科学版)2 0 2 3年9月 第4 3卷 第5期第二,同样都规定了服务提供者的责任,但 生成式人工智

46、能管理办法意见稿 将服务提供者定性为内容提供者,而 深度合成管理规定 则倾向于将服务提供者定性为技术服务提供者。具体而言,生成式人工智能管理办法意见稿 规定的是服务提供者承担“内容生产者”责任。“内容生产者”并不是一个常见的法律术语。网络信息内容生态治理规定 中有“网络信息内容生产者”的概念,其被定义为“制作、复制、发布网络信息内容的组织或者个人”。这个概念与“网络信息内容服务平台”相对存在。实际上,网络信息内容生产者相当于网络内容提供者(I C P),而网络信息内容服务平台相当于网络技术服务提供者(I S P)。后者就是“网络平台”的概念,其自身并不生产、提供内容,而仅为他人发布、传播内容提

47、供服务。生成式人工智能管理办法意见稿“内容生产者”的概念很可能来自 网络信息内容生态治理规定,这意味着“内容生产者”是指内容提供者,也就是说按照 生成式人工智能管理办法意见稿,服务提供者扮演的是内容提供者而非技术服务提供者的角色。深度合成管理规定 的立场则不同,其并未要求服务提供者承担内容提供者的角色。相反,从 深度合成管理规定 为服务提供者规定的义务来看,其更接近网络信息内容服务平台(以下简称“网络平台”),而网络平台属于技术服务提供者而非内容提供者。深度合成管理规定 第七十二条为服务提供者规定了一系列的义务,包括落实信息安全主体责任,具有安全可控的技术措施;建立和公开管理规则和平台公约,履

48、行管理责任;加强内容管理,对内容进行技术或人工审核,发现违法和不良信息,进行处置报告;建立辟谣机制。这些义务与相关法律法规对于网络平台规定的义务更为接近。对于违法或不良的内容,内容提供者的法律责任和网络平台的责任有着巨大的差别,内容提供者是承担内容责任的直接责任人;而网络平台则不需要承担直接责任。以知识产权侵权为例,内容提供者意味着如果内容侵权,其应承担直接侵权责任。但网络平台则不同,其属于技术服务提供者,不需要承担直接侵权责任。其仅在收到合格通知以及明知或应知侵权而未采取必要措施制止的情况下,才承担间接侵权责任。基于这种巨大的差别,生成式人工智能管理办法意见稿 和 深度合成管理规定 虽然都将

49、服务提供者作为主要的内容责任主体,但责任内涵存在显著的不同。虽然 生成式人工智能管理办法意见稿 和 深度合成管理规定 在整体上对于服务提供者内容责任的定位不同,前者为内容提供者而后者为网络平台,但是 生成式人工智能管理办法意见稿 第十五条要求服务提供者对于主动发现和用户举报的不良和违法内容,需采取内容过滤等措施并防止内容再次生成。这个义务模式与 深度合成管理规定 将服务提供者定位为网络平台的义务模式存在相似之处,深度合成管理规定 第十条第三款和第十二条也建立了与 生成式人工智能管理办法意见稿 第十五条相似的义务。如果进行更早的溯源,可以发现这个义务模式都来源于 网络信息内容生态治理规定 为网络

50、信息内容平台规定的相应义务。在对现行法及 生成式人工智能管理办法意见稿有关内容责任主体规定的分析基础上,可以进一步考察相关规定的不足:其一,生成式人工智能管理办法意见稿 关于服务提供者内容责任主体的规定出现了冲突。一方面,生成式人工智能管理办法意见稿 在整体上将服务提供者定位为内容提供者;另一方面,其第十五条实质上又要求服务提供者承担类似于网络平台的责任。这两个责任本质上是冲突的。服务提供者既然承担了内容提供者的责任,再为其规定发现违法或不良内容,需采取内容过滤和防止内容再次生成(以下也简称“发现阻止”)的义务和责任已经没有意义了。因为这种“发现阻止”机制产生作用的前提是,发现者不承担内容提供

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服