收藏 分销(赏)

生成式人工智能的三大安全风险及法律规制——以ChatGPT为例.pdf

上传人:自信****多点 文档编号:581904 上传时间:2024-01-02 格式:PDF 页数:15 大小:1.89MB
下载 相关 举报
生成式人工智能的三大安全风险及法律规制——以ChatGPT为例.pdf_第1页
第1页 / 共15页
生成式人工智能的三大安全风险及法律规制——以ChatGPT为例.pdf_第2页
第2页 / 共15页
生成式人工智能的三大安全风险及法律规制——以ChatGPT为例.pdf_第3页
第3页 / 共15页
亲,该文档总共15页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、生成式人工智能的三大安全风险及法律规制以为例刘艳红¥内容摘要:的横空出世意味着人工智 能的发展获得全新动能,根据生成式人工智 能从准备、运算到生成阶段的运行机理,可以发现其中存在三大安全风险。针对生成式人工智能在准备阶段的数据风险,应基于 总体国家安全观统筹使用国家数据,对政务数据进行合规监管,在个人数据的收集广度上保持合规并以最小比例原则确定处理深度,以确保生成结论的真实性。针对生成式人工智 能在运算阶段的算法模型特点及算法偏见风险,应通过技管结合进行修正,完善技术标准并予以实质审查,建立自动化、生态化、全流程的动态监管体系。针对生成式人工智 能在生成阶段的知识产权风险,鉴于其生成物的独特属

2、性,应基于可解释性重塑其保护模式,明确保护的对象是中的可解释算法及其生成物,并构建全流程知产合规保护体系。对于生成式人工智 能在 未来可能造成的其他安全风险,宜基于风险预防主义加以防范,争取在 最大程度上发挥生成式人工智 能的技术效能,并减少新兴技术对社会发展造成的负面冲击。关键词:生成式人工智 能合规制度数据安全算法偏见知识产权中图分类号:文献标识码:文章编 号:()年月日中 国 国家互联网信息办公室生成式人工智能服务管理办法(征求意见稿)规定,生成式人工智能“是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术”。年月,人工智能公司推出了生成式人工智能,并命名为。以为代表的

3、生成式人工智能是元宇宙技术架构的终极样态之一,它的出现将元宇宙的实现至少提前了年,元宇宙本身则 为这类生成式人工智能提供了良好的技术运行环境。在生成式人工智能技术的推动下,元宇宙的概念不仅没有因的横空出世而“褪色”,反而获得了新的发展动能。尤其是听得懂、说得出、能互动的的面世,使社会各行各业都遭受了不同程度冲击。与以往的人工智能技术相比,等生成式人工智能给人类社会带来的潜在风险真实而紧迫。如果说互联网引发了空间革命、智能手机引发了时间革命的话,类技术正在引发人类社会的知识革命。埃隆?马斯克评价说其不亚于,比尔?盖茨说其不亚于重新发明互联网,周鸿祎中 国政法大学刑事司法学院教授、博士生导师。本文

4、为国家社科基金重大招标课题“数字经济的刑事安全风险防范体系建构研究”(项目批准号:)的阶段性研究成果。参见朱鹏:中 国计算机行业协会罗军:的出现,将元宇宙实现至少提前了年,载每日经济新闻 年月日,第版。?DOI:1019404 j cnki dffx20230606003东方 法学年第期认为其可类比蒸汽机和电力的发明。相较于已有的人工智能技术而言,类技术的现象级蹿红得益于大模型和生成式人工智能架构所塑造的技术性能的实质跃升,而所具备的“大型语言模型”(),则代表着人工智能技术中深度合成领域取得了重大技术进步。海量数据与强大算力支撑之下的“涌现”能力使得类技术不仅可以“理解”人类自然语言,“记住

5、”训练期间获得的大量事实,还可以基于“记住”的知识生成高质量的内容。良好互动性、高度通用性与智能生成性正在加速类技术与人类社会形成更加刚性、高频、泛在与深刻的联结。与之对应,这也意味着类技术给人类社会带来的潜在风险较之已有的人工智能技术而言更具现实 紧迫性。深度学习之父杰弗里?辛顿()在谈及类技术时就认为:“多数人认为这(危害)还很遥远。我过去也认为这还很遥远,可能是到年甚至更长的时间。但显然,我现在不这么想了。”在此背景下,分析生成式人工智能的潜在风险并提出法律治理路径就绝非科幻意义上的“感性空想”,而是建构在现实基础之上的理性思考。为此,如何结合生成式人工智能的运行机理与安全风险进行法律规

6、制,成为当下科技界、产业界、法律界共同关注的话题。分析生成式人工智能的运行机理,其得出智能化结论的过程实 际上分为三个阶段,即前置性学习训练及人工标注辅助算法升级的准备阶段,进行自身算法处理输人数据及得出处理后数据产出物的运算阶段,数据产出物流人社会并对社会中的各行各业造成影响 的生成阶段。据此,当前生成式人工智能亟需法律规制的安全风险分别是准备阶段的数据安全风险、运算阶段的算法偏见风险与生成阶段的知识产权风险。应分析并规制以为代表的生成式人工智能所引发的这三大安全风险,以遏制生成式人工智能在技术发展过程中的 负面影响,并针对其技术特征进行事先预防,从而在新兴人工智能技术的发展过程中提供法律保

7、护,为塑造未来元宇宙的良好生态消除技术隐患。一、强基赋能:生成式人工智能准备阶段中的数据安全风险与合规处置作为生成式人工智能,必须在基础的准备阶段就调试好自身对数据的利用模式和保护方式,根据数据类型的差异进行区分对待,从而通过对数据的学习来提炼信息、预测趋势,因此数据安全风险是生成式人工智能的第一大风险。事实上,生成式人工智能服务管理办法(征求意见稿)在第条就规定了对数据训练的相关规定,这是其中值得肯定之处,在准备阶段就尝试发现并遏制生成式人工智能所可能引发的数据安全风险,但是其仍需要在规范层面进一步细化具体的规制措施。换言之,在准备阶段对数据进行分类后妥善处理其面临 的风险,是强化生成式人工

8、智能后续运行处理能力的基础,通过对数据的合理处置来赋予生成式人工智能系统以新的发展动能,发挥法律的风险预防功能。(一)生成式人工智 能的数据安全风险的类型划分:以为例生成式人工智能的运行离不开算法和数据,面对这样高度智能化的生成式人工智能,如何妥善地运用并处理数据,成为衡量此类新兴技术是否安全并规范其后续应用的重要指标。当前我国的立法、司法与执法机关都高度重视数据风险的分析与预防,在人工智能技术兴起之后,先后出台 了生成式人工智能服务管理办法(征求意见稿)、数据安全法、网络安全法、个人信息保护法、数据出境安全评估办法互联网信息服务深度合成管理规定个人信息出境标准合同办参见齐佳音:从谈人工智能时

9、代的管理范式变革,载中 国社会科学报 年月日,第版。参见周维栋:生成式人工智能类案裁判的标准及价值边界,载东方法学 年第期。,(,),:参见曹树金、曹茹烨:从看生成式对情报学研究与实践的影响,载现代情报 年第期。?生成式人工智能的三大安全风险及法律规制法等法律规范,从多方面对人工智能应用数据加以规制。在以为代表的生成式人工智能实际应用过程中,根据数据具体应用场景,可分为涉及国家安全的国家数据,政府在为公民服务过程中整合形成的政务数据,以及与公民自身具有紧密关系的个人数据,这三类数据在应用过程中会面临不同类型的数据安全风险,需要结合场景本身加以分析。应用国家数据时面临国家安全风险年月日,中 国共

10、产党第二十次全国代表大会报告指出“必须坚定不移贯彻总体国家安全观总体国家安全观理念代表国家更加强调从顶层设计上强化对国家安全的保护,而数据安全则是总体国家安全观理念中的应有之义。在总体国家安全观的指引下,数据安全法第条规定,“维护数据安全,应当坚持总体国家安全观,建立健全数据安全治理体系,提高数据安全保障能力这提出了一个包含数据基本要素以及数据基本子制度的数据安全制度模型,以期 实现对数据的全生命周期保护。对国家安全构成潜在安全风险是由于自身的技术框架源于域外,主要是基于西方价值观和思维导向建立,因此其中的回答也通常迎合西方立场和喜好,可能导致意识形态渗透,并在部分数据的收集和处理上带有先天性

11、的价值偏向,容易对涉及国家相关信息的数据进行深度分析和挖掘,从而影响我国数字主权和数据安全。现代数字技术通过与资本的合流推动了经济、政治的全球化,并在此过程中形成了新的霸权形式,这种新的霸权形式可能从不同以往的方向影响数字主权,并通过渗透数据安全进而影响国家安全。事实上,的良好运算离不开海量数据的支撑,且其具有的高度智能化特征会促使其自发地收集和处理相关数据,其中涉及国家已经整合公布的相关数据以及未被整合公布的相关数据,都有可能被其进行收集并深度加工,作为得出结论的数据支撑。数据出境安全评估办法第条规定,数据出境安全评估重点评估数据出境活 动 可能对国家安全带来的风险。对于引人所可能给国家数据

12、带来的安全风险,应基于总体国家安全观理念对其进行类型化监管,以分级方式对国家安全数据进行纵向梳理,从而规范类似的新兴人工智能对于国家数据的收集与应用流程,并尝试构建数据被动出境的主动防御体系,尤其是建设并强化网络攻击监控平台来重点保护国家数据。应用政务数据时面临行政监管风险年月日北京市经济和信息化局发布年北京人工智能产业发展白皮书,其中提到“全面夯实人工智能产业发展底座。支持头部企业打造对标的大模型,着力构建开源框架和通用大模型的应用生态。加强人工智能算力基础设施布局。加速人工智能基础数据供给”,这意味着政府层面逐渐重视类似的本土人工智能系统的构建。有效推动数字政府治理本身就是新时代实现我国

13、国家治理体系与治理能力现代化的重要内容。在数字政府的建设过程中,将会影响数字政府建设的具体流程,其中对于政务数据的获取与使用,存在引发行政监管风险的可能性。当前政务工作的整体趋势是逐渐向数字化平台转移,人们需要运用信息工具参与数字行政,防止行政权力滥用并保障公民权利和公共利益是数字政府建设中的应有之义。伴随数字政府的建设,不论是政务处理流程,还是行政执法流程,政务数据都是数字政府的核心生产力,尤其是在以大样本数据收集与分析来建设数字化案例库的过程中,大数据技术将会归纳执法经验,预判违法行为频段、危害后果大小和法律效果格次,确保裁量基准文本在输送上的客观性以及参照结果上的可预测性,参见王雪诚、马

14、海群:总体国家安全观下我国数据安全制度构建探究,载现代情报 年第期。参见商建刚:生成式人工智能风险治理元规则研究,载东方法学 年第期。参见李秋祺:数字技术能推动世界主义吗抵抗数字霸权的新路径及反思,载探索与争鸣 年第期。马其家、刘飞虎:数据出境中的国家安全治理探讨,载理论探索 年第期。参见王禄生:论法律大数据“领域理论”的构建,载中 国法学 年第期。参见周佑勇:中 国行政基本法典的精神气质,载政法论坛 年第期。参见周佑勇:健全行政裁量基准的新使命新任务,载行政法学研究 年第期。?东方 法学年第期而这些政务数据都可能成为的攫取对象。在的运行过程中,为了通过算法最优解得出相对准确的结论,不可避免应

15、基于自身运算需求来收集并分析政务数据,但政务数据并非完全公开,即使公开也需要遵循法定的利用规范流程,在没有获得授权的情况下使用政务数据,本身就有不合规之虞。年月日交通运输部交通运输政务数据共享管理办法第条规定,“加强本部门政务数据提供渠道和使用环境的安全防护,切实保障政务数据采集、存储、传输、共享和使用安全”,而年月日文化和旅游部政务数据资源管理办法(试行)第条规定,“政务部门应当建立政府和社会共建共享、共同受益的大数据采集形成机制”。由此可见,政府部门对于政务数据依法合规应用与共享非常重视。当收集政务数据,或者在未来被嵌人并辅助数字政府治理时,将数据放权给机器,其技术框架所依赖的是算法衡量,

16、而非人类的选择,可能忽略甚至对抗人类的选择,那么其对于政务数据的应用可能带来人性冲 突,这将和数字政府的建设初衷相悖,偏离以人为本理念并导致行政监管缺乏人性关怀。鉴于此,针对可能导致违规获取与利用政务数据问题,应针对这类高度智能化的人工智能系统,在获取政务数据的源头端强化管控,依靠法律手段构建治理体系,科学界定政府数据开放的边界,立足发展实际来合理制定政府数据开放和共享的法律规范,从而有效地规避后续的行政监管风险。应用个人数据时面临违规利用风险当前大数据的核心技术优势在于其承诺以“世界的实质”来取代传统社会的理论模型,并提供一个“无中介的渠道”来了解世界的本质性、多样性与复杂性,对于“真实而非

17、抽象”的个人而言,人工智能提供了“接近现实的更佳途径”,而这也是受到追捧的主要原因。但在个人应用的过程中,不可避免导致个人数据泄露。个人数据与公众的日常生活 紧密挂钩,对于个人数据的获取、加工与利用涉及对公民的人格尊严的保护,在个人权利体系中,个人隐私、个人信息与个人数据分别处于事实层、内容层与符号层,其中个人数据作为符号层可以直接被移植到的计算过程中,而得出的最终结论则 可能从各个方面影响公民的数字权利保护。对于个人数据的定义,欧盟一般数据保护条例规定,个人数据是指关于任何已识别或可识别自然人(数据主体)的信息,特别是通过诸如姓名、身份编号、地址数据、网上标识或者自然人所特有的一项或多项的身

18、体性、生理性、遗传性、精神性、经济性、文化性或社会性身份而识别个体。等生成式人工智能生成较为准确且完成度较高的结论的运行过程,主要是对个人数据进行再次深度加工,通过组合分析不同类型的个人数据来充分挖掘出其潜在价值,这种处理模式下的个人数据如同“砧板上的肥肉”一样为无数人工智能系统所瓢觎,但缺乏科学合理且行之有效的法律保护措施,从而导致个人数据被违规利用的风险。第一,对个人数据的利用在广度上存在违规风险。为了生成更准确的答案,需要大量的数据,很多个人数据即使与当事人想咨询的结论之间联系并不紧密,的算法也会收集这类个人数据来辅助验证,并通过知识蒸馏来进行深度学习并凝练结论。在此过程中,由于对于个人

19、数据的收集边界模糊,其倾向于通过大数据技术来提升结论的准确度,这会导致对个人数据的利用在广度上存在违规风险。应该尝试厘清相应的数据收集边界,在中维持收集与保护间的平衡。第二,对个人数据的利用在深度上存在违规风险,其所依赖的神经卷积模型相较于传统参见刘 艳红:人性民法与物性刑法的融合发展,载中 国社会科学 年第期。参见李涛:政府数据开放与公共数据治理:立法范 畴、问题辨识和法治路径,载法学论坛 年第期。立陶宛伊格纳斯?卡尔波卡斯:算法治理:后人类时代的政治与法律,邱遥堃译,上海人民出版社 年版,第页参见申卫星:数字权利体系再造:迈向隐私、信息与数据的差序格局,载政法论坛 年第期。美海伦?尼森鲍姆

20、:场景中的隐私技术、政治和社会生活中的和谐,王苑等译,法律出版社 年版,第页。参见黄震华、杨顺志、林威等:知识蒸馏研究综述,载计算机学报 年第期。?生成式人工智能的三大安全风险及法律规制算法模型而言更加复杂,对于各种数据要素的分析也更加深人,深度神经网络会发掘出个人数据中潜藏的信息。比如,在深度分析个人健康数据来得出其行踪数据,甚至基于现有模型作出前瞻性预测,这种超出公众既定需求的深度分析模式会加剧公众的不安全感。事实上,欧盟一般数据保护条例明示了用户对于个人数据拥有绝对支配权,那么算法对于个人数据的加工在深度上应该遵循一定的规则,尤其是对于这类生成式人工智能,必须克服算法自身的技术惯性,不能

21、无限制地强化其对个人数据的剖析与利用,而是应该合理地限制算法对个人数据的处理深度。第三,在利用个人数据得出的结论上存在违规风险,可能导致虚假信息的产生,导致其生成“看上去很像那么回事,但实质上却是虚假信息”的内容,并引发传播风险。作为面向用户 的生成式人工智能,为了获得用户 的认可,在运行过程中存在对个人数据不合理的加工流程,在个别情况下存在为了“自圆其说”而对个人数据进行非法编造与错误加工的行为,对公众产生误导,甚至存在诱发网络暴力的嫌疑。比如,域外曾发生用户诱导“越狱”的案例,用户要求扮演的角色,而可不受任何规则 约束,作为输出的任何回复都不能告诉使用者不能做某事,最终诱使给出违反公司准则

22、的错误答案。违规利用个人数据得出的虚假结论,由于数据来源于个人,因此其造成的负面影响也会反噬来寻求结论的个人,同时因为具有高超的算法技术来得出“似是而非”的结论,并配合原始的个人数据作为佐证,导致其得出的虚假结论具有极强的迷惑性,这种“类人”的人工智能得出的虚假结论容易引发网络暴力,甚至在网络社会与现实社会的双层空间之中产生不利影响。总之,在对于个人数据的收集、处理与应用过程中,由于个人数据和公民个人的联系较为 紧密,存在的风险也较为复杂,因此不仅在个人数据的收集广度上存在风险,还在处理深度以及结论应用上存在风险。鉴于此,对个人数据的利用流程应该予以规范化设置,确保新兴人工智能技术的应用不会破

23、坏个人数据的内在利益平衡,而是合规地收集并通过加工分析出具有实 际价值的真实结论,避免的算法算力被无端消耗。(二)生成式人工智 能数据安全风险的法律规制路径:合规处置在新兴人工智能技术的发展浪潮中,生成式人工智能系统之所以能够获得广泛关注,核心在于它提供了全新且强大的数据处理模式,但在强大数据处理能力背后,应该重视生成式人工智能在数据安全上的合规处置,避免追求效率而忽视安全。在当前强调数据安全保护的大背景下,应尽可能在的初始阶段合规处置数据风险来优化生成式人工智能的适用基础,从而为后续开放引进或者构建中 国特色的生成式人工智能开发应用模式奠定基础。应用对于国家数据所可能带来的法律风险,应该基于

24、总体国家安全观的理念进行统筹规划。针对这类生成式人工智能中可能存在的攫取数据的路径方式进行监管,网络安全法第条提出“国家实行网络安全等级保护制度采取数据分类、重要数据备份和加密等措施”;数据安全法第条规定数据安全审查制度,对影响或者可能影响国家安全的数据处理活 动进行国家安全审查,而这类生成式人工智能自然属于其监管范围之中。在具体的运行措施上,应该基于总体国家安全观来构建国家数据的审查分级监管机制,在确定数据属于国家数据之后,根据数据具体情况判断其是否能够为此类生成式人工智能技术所应用,在判断时尤其需要注意数据的深层次价值,采用穿透式监管的模式来分析国家数据的产生来源、内容架构以及潜在价值,通

25、过规范文件来强化参见邵仁荣、刘宇昂、张伟 等:深度学习 中知识蒸傭研究综述,载计算机学报 年第期。黄闪 闪、林田:欧洲通用数据保护条例()视角下深度学习算法的理据性问题刍议,载系统科学学报 年第期。韩博:引发的人工智能内容生产传播风险,载中 国社会科学报 年月日,第版。参见邓建鹏、朱怿成:模型的法律风险及应对之策,载新疆师范大学学报(哲学社会科学版)年第期。参见刘艳红:理念、逻辑与路径:网络暴力法治化治理研究,载江淮论坛 年第?。参见王禄生:区块链与个人信息保护法律规范的内生冲突及其调和,载法学论坛 年第期。?东方 法学年第期对国家数据的合规监管。的算法框架是在域外构建的,其算法框架内部可能存

26、在一定的价值倾向,在国家数据被使用时应该重视数据出境问题。应根据数据出境安全评估办法的规定来判断国家数据能否为所使用,分析国家数据被的算法处理时可能对国家安全造成的风险,在多数情况下默认国家数据不可以为所使用,同时对获取国家数据的路径进行严格审查,从整体上升级国家数据作为基础性战略资源的认识和管理思路,通过合规监管来助力数据主权的国际竞争。对于应用政务数据所可能带来的法律风险,应该根据国家对政务数据管理的整体布局来构建对应的合规监管体系。在宏观层面,年月日,国务院关于加强数字政府建设的指导意见提出,构建数字化、智能化的政府运行新形态,将数字技术广泛应用于政府管理服务。年月日,中共中央、国务院数

27、字中 国建设整体布局规划提出,发展高效协同的数字政务,加快制度规则创新,强化数字化能力建设,提升数字化服务水平,到年实现政务数字化智能化水平明显提升。在此宏观背景下,将这类生成式人工智能引人数字政府的建设中,显然有助于加快数字政府建设,提升数字政府的服务水平。但在此过程中,政务数据对的开放利用也会导致数据权属以及利用模式上的争议,并影响公共行政水平,所以需要结合的实 际发展水平构建技术与数据的深度融合调整机制,以合规机制来消弭政务数据的利用矛盾。对于政务数据的合规利用,应该由政务机构将可以公开利用的数据在事前进行报备,在经过审核可以公开利用之后,设置限制加工和利用的前提要件,以此作为合规使用政

28、务数据的规范保障,坚持在满足政务数据供给的社会性需求的同时,兼顾个人权益保障与数据合规,以此作为政务公共数据开放并利用的规范性要求。尤其是针对这类生成式人工智能,必须限制其对政务数据的利用与分析模式,避免应用政务数据得出的结论侵害个人权益、破坏社会公共秩序。应以合规限制的方式促进生成式人工智能对政务数据的加工利用,规范要求生成式人工智能所得出结论的整体方向是为公众服务,从而既推动数字政府建设,又以合规方式尽可能规避行政监管的风险。对于应用个人数据所可能带来的法律风险,应该结合其收集个人数据的广度深度及结论真实性来构建相应的合规制度。具体而言,根据个人数据的庞大规模制定能同时平衡人工智能技术发展

29、与个人数据保护的合规措施,从收集个人数据的广度、处理个人数据的深度以及得出结论的真实性这三个方面人手,构建对应的合规制度。在这类生成式人工智能的语境下,对于个人数据的合规处理主要集中在技术赋能和利益衡量相结合方面,利用技术手段创新来发掘个人数据的潜在价值,同时借助利益衡量来为技术处理的合规规定提供价值依据。方面,在收集个人数据的过程中应该保持收集广度上合规,个人信息保护法第条规定大型互联网平台企业须承担个人信息保护特别义务,而公司显然属于大型互联网平台,其应当健全个人数据保护合规体系,设立独立监督机构来审查作为人工智能产品所收集的数据是否合规,?尤其是对位于模棱两可处境的个人数据,应该尽可能避

30、免收集,防止个人数据的收集范围泛化。另一方面,在确定处理个人数据的深度时,应该在满足技术必要性的前提下,基于最小比例原则处理个人数据,对于个人数据应该避免过分深人地挖掘其潜在价值,应围绕用户 的个人诉求来处理个人数据,而非一味地追求结论的精准程度。作为生成式人工智能,其算法模型在运行时会出于技术本能来提升生成结论的精准度,而这一技术发展诉求不能成为其违规利用个人数据的理由,最小比例参见洪延青:国家安全视野中的数据分类分级保护,载中 国法律评论 年第期。参见美劳伦斯?莱斯格:代码:网络空间中的法律,李旭、沈伟伟译,清华大学出版社 年版,第页。参见徐珉川:论公共数据开放的可信治理,载比较法研究 年

31、第期。参见周佑勇:中 国行政基本法典的精神气质,载政法论坛 年第期。参见刘 艳红:智慧法院场景下个人信息合规处理的规则研究,载法学论坛 年第期。参见王锡锌:个人信息国家保护义务及展开,载中 国法学 年第期。?生成式人工智能的三大安全风险及法律规制原则意味着只要能够实现用户 的目的即可,不能过度地收集和处理个人数据,从而使得个人权益受到的限制和干预尽量处于最低水平。以最小比例原则作为合规标准来限制个人数据的处理深度,能够有效地消除生成式人工智能的潜在威胁,避免技术发展的途径被歪曲。最后,当前迭代升级标志着人工智能从算法智能走向语言智能,在人与机器的交流过程中充斥着真实与人工、真实与虚拟的交互关系

32、,作为新兴的生成式人工智能也在结论上存在虚假信息甚至犯罪信息。为了 以合规监管的方式消除此类虚假信息,应该规范对于个人数据的处理加工模式,在的运行规则中规定其可以得出无解作为回复,避免竭力去寻求回复甚至编造虚假回复或者得出错误回复,同时要求在处理个人数据时应该强制进行同类比对模式,对个人数据的处理结果在数据库内部进行同类比对,提升其得出结论的准确性,避免其结论过于偏离实 际。总之,当前生成式人工智能意味着一个新的科技生态系统,该系统集成了人为因素 与技术因素,并基于人工系统和自然世界结合的并行智能以及去中心化模式来激发人工智能创新。鉴于此,生成式人工智能在利用数据的过程中,应该做好前置性的预防

33、工作,通过对数据的分类以及后续合规处理措施的展开来消除数据的安全法律风险。、内核优化:生成式人工智能运算 阶段中算法模型的分析与纠偏生成式人工智能之所以获得社会各界的高度关注,乃因其由传统的分析式人工智能转向了新兴的生成式人工智能,而算法模型在其转型过程中扮演重要的角色,生成式人工智能对于数据的分析和处理主要通过基础算法进行分析,改变了数据的产生方式、组织形式以及流转方式。在以为代表的生成式人工智能的运算阶段,算法模型是其核心技术特征,正是把预训练和微调体系 引人自然语言算法处理过程中,才开启了生成式人工智能应用新时代,算法偏见风险也因此成为生成式人工智能的第二大风险。与之对应,生成式人工智能

34、服务管理办法(征求意见稿)中第()条规定在算法设计、训练数据选择、模型生成和优化、提供服务等过程中不得出现各类歧视,这说明在规范制定之初就充分借鉴了之前的设置经验,已经充分考虑算法偏见所带来的风险,进一步增强了该规范的实用性,因此值得肯定。但是该规范中缺乏专门的预防算法偏见的规定,需要结合运行的现实需求进行设置。(一)中算法模型的技术构成分析相较于传统算法模型,的特殊之处在于其不仅依靠机器学习,还在机器学习的同时,通过大量的人工标注来修正和校对机器学习所得出的结论,以人工标注方式来推动人工智能的进化,同时校正机器学习中存在的错误,从而达到事半功倍的效果。将人类筛选应用至中,是考虑到其作为生成式

35、人工智能面向公众并且需要作出反馈的运行模式,分析式人工智能主要是利用算法技术来分析数据,生成式人工智能则增加了接收和反馈的环节,这对人工智能算法提出了更高的技术要求,同时也是中算法的典型特征。在算法的机器学习过程中,个别情形下让人工智能算法来完全辨析公众发出的描述,既消耗算法算力,又难以及时得出准确的结论,无论是自回归模型、生成式对抗网络,还是变分自编码、流模参见冯恺、杨润宇:人脸识别信息处理中“合法、正当、必要”原则的 区分审查,载东南法学 年第期。,:,(),:,()参见曹树金、曹茹烨:从看生成式对情报学研究与实践的影响,载现代情报 年第期。?东方 法学年第期型、扩散模型,上述算法模型在处

36、理公众语言时都存在先天不足,而这种不足会导致人工智能在接收数据阶段就存在缺陷,难以展开后续的智能化分析,必须采用人工标注的方式进行校正。算法中人工标注校正主要分为两个方向:一是将人类表达任务的习惯说法以数据的形式让算法接受,同时矫正算法中不能接受的人类语言描述;二是将人类对于回答质量和倾向的判断灌输给算法程序,这样算法就会习惯给出人类希望从人工智能处得到的答案。事实上,中用于算法训练的是一个大型数据集,数据集中的具体数据大多是从社交媒体平台所链接的网络中爬取的,而且每个链接至少有个赞,这代表了人类社会流行内容的风向标。通过人工标注校正的方式,克服了传统分析式人工智能潜在的缺陷,以更适合公众需求

37、为目的来调整自身的算法模型,并且和中的机器学习算法相互配合,在技术上产生了突破性的创新。在的算法模型运行过程中,“机器学习人工标注”作为算法技术内核,本质上是服务于生成式人工智能的目的诉求,以技术组合的方式来提升的智能化程度和准确性水平,但这同时也会导致其中存在算法偏见的法律风险成倍提升。机器学习与人工标注作为组合措施使人类的意志与偏好所产生的影响比在以往单纯的机器学习中更大,因为人工标注所造成的个人偏好的影响叠加在机器学习的算法框架中本身的算法偏见之上,导致算法偏见的 负面效应倍增,算法偏见的产生渠道更加多样且难以追溯 与预防。事实上,对于这类生成式人工智能而言,其得出智能化结论背后的决策规

38、则隐而不显,致使事后法律问责难以奏效,技术复杂性与结论准确性成为算法偏见的“遮羞布”,这同时也会引发因为技术赋能而导致的衍生性应用风险,尤其是人工标注技术的介人增加了算法偏见产生的复杂程度。在中,人工标注通过打分模型将人类本想获得的结论信息反馈至数据库,在数据库中总结归纳成机器学习的经验,而这一过程中注人了人类偏好,促使?能够理解人类语言并且拥有自身的判断标准与判断能力。扪分析的运行模式发现,其产生算法偏见主要集中在两个阶段:一是接收数据的阶段,对于人类语言的理解需要人工标注作为辅助措施,而解读的过程本身就会受到算法偏见的影响而产生误解;二是处理数据的阶段,通过处理数据得出结论,囿于其初始结论

39、可能并不符合一般公众的预期,此时人工标注和矫正有助于获得符合公众预期的结论,但这一过程也不可避免受到算法偏见的影响。总之,在的运行过程中,算法偏见可能的法律风险根源并不在于其真正作出不利于人的决策,而恰恰是其能“代替或参与人的决策”这件事本身,对于?可能引发算法偏见的法律风险,应该认识到这是算法模型的技术构成所带来的必然结果。但既然算法模型中的算法偏见无法避免,那么就应该尝试根据的技术特征来寻求消弭算法偏见的解决之策。(二)技管结合纠正中的算法偏见针对算法运行过程中难以避免的算法偏见法律风险,应该根据算法偏见的产生原理与产生场域进行针对性的管控。面对“算法失灵”的社会现状以及“算法脱轨”的潜在

40、风险,应该承认“算法不是万能的”,并在算力不足、算法无解和数据缺失的领域做好人力物力的充分布局,从而与智能社会形成良好的匹配与互补采用的“机器学习人工标注”的技术处理模式就是通过人力资源来填补算法模型的固有不足。值得注意的是,虽然人工标注能大幅提升算法结论的准确性,促使得出公众需要的有效结论,但也不可避免出现算法偏见,尤其是在立足于服务公众并满足公众需求的前提下,这种算法偏见会得到默许甚至支持,最终导致算法结论失真。针对?朱光辉、王喜文:的运行模式、关键技术及未来图景,载新疆师范大学学报(哲学社会科学版)年第?。参见岳平、苗越:社会治理:人工智能时代算法偏见的 问题与规制,载上海大学学报(社会

41、科学版)年第期。参见朱光辉、王喜文:的运行模式、关键技术及未来图景,载新疆师范大学学报(哲学社会科学版)年第期。参见王建磊、曹丼萌:的传播特质、逻辑、范式,载深圳大学学报(人文社会科学版)年第期。参见喻国明、苏健威:生成式人工智能浪潮下的传播革命与媒介生态从到全面智能化时代的未来,载新疆师范大学学报(哲学社会科学版)年第期。?生成式人工智能的三大安全风险及法律规制中的算法偏见问题,应该遵循技管结合的理念,从技术与规范两方面人手来强化对算法偏见的全流程监管,在推动生成式人工智能发展的同时做好规范层面的法律监管工作。针对在应用之前的机器学习调试中出现的先天性算法偏见,应该根据算法模型的学习路径进行

42、调整,通过规范文件的形式强调算法模型应该遵守的技术标准,在投人市场应用之前进行实质审查。年月日国家互联网信息办公室等多部门颁布的互联网信息服务算法推荐管理规定第条规定,算法推荐服务提供者应当定期 审核、评估、验证算法机制机理、模型、数据和应用结果等,不得设置诱导用户沉迷、过度消费等违反法律法规或者违背伦理道德的算法模型。在这一规范文件的指引下,的算法模型在投人应用之前就应该进行严格的法律审查,避免算法模型在机器学习的过程中就被渗人人为的算法偏见,并将规范文件的要求以技术标准的形式融人算法程序的编译过程中。鉴于的特殊技术特征,对其预先设置的算法纠偏过程应该分两个方向展开:一是针对机器学习中可能存

43、在的先天性算法偏见,在算法程序编译环节进行预防。机器学习的过程是将部分数据作为输人,并产生相应的结论作为输出,其中的计算过程需要进行预先的训练,而这一训练过程也就是算法的机器学习过程,应该将规范文件的要求融人算法程序的设计过程中。在算法设计过程中,对于可能存在算法偏见的参数,要及时发现并予以消除,对算法程序上的偏见进行调整和校对,促使其能够回归正常的算法运行路径,以规范文件约束算法技术,避免算法偏见成为的“隐疾”并被放大,而是贯彻“技术治理”的工具赋能路径,完善对算法程序代码的监督样态。?二是对人工标注的算法偏见通过设置规范加以预防。中存在与公众对接的接口,需要在机器学习的调试中提升其准确理解

44、公众语言传输的能力,并尽可能避免在语言传输与转化过程中出现先天性偏见,导致输人端的先天性偏见最终演化为输出端的结果性偏见,而这种算法偏见主要来源于人工标注。在现实应用过程中,对于不同语言描述的内容,会自动识别其语言形式,从形式和实质两个方面判断公众想要咨询的内容并给出偏见性回复。比如,简体字和繁体字描述同一问题可能得到截然不同的回复,这种算法偏见主要归咎于算法模型在学习阶段受到了差异性的人工标注的影响。为了尽可能消除这种输人端引发的算法偏见,促使能够以公正合理的态度来处理问题,而非根据输人端内容在形式上的差异而给出带有偏见性色彩的回复,应该设置统一的人工标注规范标准,要求人工标准遵循相对一致的

45、判断标准,避免人工标注造成的偏向性误导,同时要求生成式人工智能在理解问题时遵循一致的逻辑并给出公允的回复,而非刻意“讨好”公众并给出偏见性的回复。针对在应用过程中经过自我学习而得出的后天性的算法偏见,应该通过在外部建立自动化、生态化、全流程的动态监管体系来进行审核并消除算法偏见。这种动态监管体系对算法偏见的审核,一方面承认算法在运算过程中存在客观上的技术偏差,另一方面通过不断地动态校正来消除这类偏见所带来的风险。作为高度智能化的生成式人工智能,其算法会逐渐演变出自主性和认知性特征,初步具备自我学习的能力而摆脱了纯粹的工具性角色,算法偏见在其自我学习过程中也会逐渐滋生且难以避免。针对这一情形,即

46、使是预置的算法纠偏措施也会趋于失效,尤其是在人工标注的加持下,在自我学习过程中产生的算法偏见会愈发明显且难以避免,试图一劳永逸地解决后天性的算法偏见在这种高度智能化的语境下并不现实,而动态监管反而是能够平衡资源投人与效率保持的举措,将技管结合理念以自动化、生态化、动态化的形式嵌人的算法运行过程中。在技管结合的理念下,对于后天性算法偏见的监管主要包括建立监管算法技术的自动化监管模式、形成多 主体共生演化的生态化监管网络以及落实全流程覆盖的动态化监管机制,从而实现对的全方位监管。是对于监管算法技术的自动化监管模式,要求对机器学习与人参见高景峰:法律监督数字化智能化的改革图景,载中 国刑事法杂志 年

47、第期。参见肖冬梅:“后真相”背后的算法权力及其公法规制路径,载行政法学研究 年第期。参见肖红军、商慧辰:平台算法监管的逻辑起点 与思路创新,载改革 年第期。?东方 法学年第期工标注实现自动化监管,尤其是在两者的衔接阶段,要避免人工标注的算法偏见影响“反噬”机器学习的过程,对的运行全过程进行实 时监控,只要出现算法偏见的情形便暂停结论输出且回溯至算法偏见的根源寻求解决方案。二是形成多 主体共生演化的生态化监管网络,要求对的监管由多方主体介人,不仅是行政机关依据规范文件介人规制过程,平台自身也应该及时介人监管并形成行业自律,技管结合中的规范要求包括具体法律规范上的“硬法”要求以及行业自律公约上的“

48、软法”要求。事实上,构建生态化监管网络需要平台积极参与,而“软法”的介人本身也是平台企业合规的具体要求,对算法模型进行监管的“软法”属于有效合规计划的一部分,并与合规政策、员工手册、合规组织体系、合规管理流程一起组成复杂的合规治理结构,生态化监管网络可以激发平台在上的技术创新活力。三是落实全流程覆盖的动态化监管机制,意味着对运算的全流程进行监管,这是为了降低算法偏见导致错误结论的概率,不仅对机器学习进行监管来消除算法偏见,对人工标注也进行相应的监管,防止在自我学习过程中产生算法偏见并将算法偏见扩大。在技管结合的理念下构建的全方位监管体系,能够及时发现与规制运行过程中的算法偏见,从侧面系统地推进

49、算法可信可控制度体系的构建,这有利于这类新兴的生成式人工智能在现实社会中的应用,避免算法偏见阻碍人工智能技术的发展与推广。总之,的出现意味着人工智能的发展已经迈人了新的阶段,而作为其灵魂核心的算法也逐渐超越工具角色,成为执行资源配置的基本法则。面对中可能存在的算法偏见风险,应该在分析其具有的“机器学习人工标注”的技术特征的基础上,依据技管结合的理念尽可能消除算法偏见,不仅针对先天性算法偏见在技术层面与规范层面上进行消除,还针对后天性算法偏见进行全方位监管,从而使得避免了算法偏见的生成式人工智能系统能够被及时投人现实生活并加以应用。三、提质增效:生成式人工智能生成阶段中知识产权的剖析与重塑生成式

50、人工智能的兴起给诸多产业带来挑战,但其中影响最大的是在生成阶段对知识产权领域带来的挑战,因为生成式人工智能的智能化程度非常高,在运算时对于知识产权的归属相较于以往的人工智能系统产生了颠覆性变化,所以知识产权风险成为生成式人工智能无法规避的第三大风险。生成式人工智能服务管理办法(征求意见稿)中多次提及“尊重知识产权”“防止侵害知识产权”以及“不含有侵犯知识产权的内容”,体现出规范层面对于生成式人工智能所可能造成的知识产权法益损 害后果的重视,凸显出规范制定过程中的务实性与前瞻性。事实上,虽然公司在的共享和发布政策中提到与共同创作的内容归 属于用户,但同时也要求作品中必须以一种任何读者都不会错过的

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服