收藏 分销(赏)

大模型合规白皮书2023.pdf

上传人:Stan****Shan 文档编号:1276006 上传时间:2024-04-19 格式:PDF 页数:82 大小:685.81KB
下载 相关 举报
大模型合规白皮书2023.pdf_第1页
第1页 / 共82页
大模型合规白皮书2023.pdf_第2页
第2页 / 共82页
大模型合规白皮书2023.pdf_第3页
第3页 / 共82页
大模型合规白皮书2023.pdf_第4页
第4页 / 共82页
大模型合规白皮书2023.pdf_第5页
第5页 / 共82页
点击查看更多>>
资源描述

1、大模型合规白皮书20232023 年 11 月大模型合规白皮书金杜律师事务所上海人工智能研究院华为技术有限公司上海昇思AI框架&大模型创新中心2023年11月前言大模型作为人工智能发展脉络中的里程碑,引发了新一轮的科技创新浪潮,其以强大的计算能力和深度学习技术,极大地提高了内容生产效率,促进内容生产方式颠覆式变革。各行各业纷纷布局大模型应用,把握智能化发展的机遇。然而,大模型也面临隐私泄露、侵犯第三方权益以及违背伦理等潜在风险,引发了社会各界的关注和担忧。随着大模型的广泛应用,加快完善大模型的立法监管以确保大模型的应用与发展符合伦理道德和社会价值观,推动人工智能科技的健康发展变得迫在眉睫。世界

2、上主要国家和地区均着手并加快完善大模型相关的法律监管。例如,欧盟以人工智能法案为核心,结合大模型可能涉及的其他领域的立法,逐步建立起专项法案为主、现存法规为辅的人工智能法律监管框架;美国对于人工智能大模型的立法较为分散,各州分别各自推进人工智能立法,联邦政府则试图在现有的立法框架及监管规则内对大模型及人工智能进行规制,但同时,人工智能相关的联邦专项立法提案也在推进当中。我国围绕网络安全、数据安全、个人信息保护等重点领域制定了法律法规,并及时跟进人工智能技术创新发展态势,先后针对互联网信息推荐、生成式人工智能等技术领域出台了管理办法,建立了法律法规和标准规范相协调的人工智能监管制度体系。在此背景

3、下,本白皮书在我国人工智能法律监管框架下进一步梳理了大模型相关方的合规义务及要点,并展望未来大模型法律监管体系的发展趋势与特征,对政府、企业、社会共建大模型治理体系提出切实建议,从而为社会各界了解大模型立法最新动态和立法趋势提供有价值的参考,并为相关单位开展大模型业务提供法律解读及合规指引,保障大模型相关业务的合规经营以及行业的健康规范发展。目录前言一、大模型的发展历程(一)早期模型的探索与局限性8(二)深度学习的崛起11(三)GPT 等代表性大模型的影响121.大模型带来的效率与准确度革命142.大模型带来的机会与挑战15二、全球大模型监管现状(一)主要国家和地区加快完善大模型监管171.欧

4、盟172.美国253.英国35(二)我国对于大模型的监管现状381.立法现状382.合规要素473.大模型业务中各方合规义务一览表594.运营角度的其他考量61三、未来展望与发展建议(一)未来展望:大模型合规的前沿701.大模型技术创新发展与合规风险并存702.大模型合规框架走向标准化与国际化703.社会文化和伦理逐渐与合规体系相融714.行业应用面临不同合规挑战与监管725.治理路径分阶段、有弹性地构建73(二)发展建议:构筑大模型合规生态741.政府推动构建行业新秩序742.企业创新与责任担当783.社会组织加强协同合作808大模型合规白皮书一、大模型的发展历程(一)早期模型的探索与局限性

5、从早期的符号逻辑到现代的深度学习1模型,AI 领域经历了数十年的探索和迭代,为后续突破打下了坚实基础。随着大数据的发展和 AI 计算能力的爆炸式增长,深度学习模型的崛起显得尤为突出。然而,尽管这些模型在特定任务上取得了令人瞩目的成就,其在初期也面临着许多局限性,如存在数据依赖、计算消耗大、缺乏可解释性等。这些局限性不仅为 AI 领域带来技术挑战,也引发了对模型偏见、安全性和应用范围的深入思考。1956 年 6 月举行的达特茅斯夏季人工智能研究项目,被广泛认为是人工智能作为一个研究学科的开端。自“人工智能”概念被提出,大模型的发展经历了三个阶段:早期发展期(1956-2005):该阶段主要是传统

6、神经网络模型的阶段,例如循环神经网络(RecurrentNeuralNetwork,“RNN”)2、卷积神经网络(ConvolutionalNeuralNetworks,“CNN”)3。起初,AI发展主要基于小规模的专家知识,然后逐渐转向机器学习4,1980年和1998年诞生的CNN和LeNet-55奠定了深度学习模型的基础。快速成长期(2006-2019):该阶段是全新的神经网络模型阶段,模型的发展方向主要聚焦长序列的处理和计算效率的提升,以Transformer6架1深度学习(Deeplearning)是机器学习(Machinelearning)中的一类算法,指利用多层神经网络,模仿人脑处

7、理信息的方式从原始输入中逐步提取和表达数据的特征。https:/en.wikipedia.org/wiki/Deep_learning,最后访问于 2023 年 11 月22 日。2循环神经网络(RecurrentNeuralNetwork,RNN)是具有时间联结的前馈神经网络(FeedforwardNeuralNetworks),特点是必须按顺序处理,并且上一层的神经细胞层输出和隐藏状态具有较大的权重影响下一层的运算。循环神经网络必须完成上一步才能进行下一步,只能串行不能并行,因此循环神经网络具有“短时记忆”的特点,技术上把这个现象称为梯度消失或梯度爆炸,循环神经网络不擅长处理和捕捉长文本中

8、的语义。https:/en.wikipedia.org/wiki/Recurrent_neural_network,最后访问于 2023 年 11 月 22 日。3卷积神经网络(ConvolutionalNeuralNetworks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(FeedforwardNeuralNetworks),是 深 度 学 习(Deeplearning)的 代 表 算 法 之 一。https:/en.wikipedia.org/wiki/Convolutional_neural_network,最后访问于 2023 年 11 月 22 日。4机器学习(Mach

9、inelearning),作为人工智能的一个分支,是指不需要进行显式编程,而由计算系统基于算法和数据集自行学习,做出识别、决策和预测的过程。https:/en.wikipedia.org/wiki/Machine_learning,最后访问于 2023 年 11 月22 日。5LeNet 又称 LeNet-5,由 YannLecun 提出,是一种经典的卷积神经网络,是现代卷积神经网络的起源之一。https:/en.wikipedia.org/wiki/LeNet,最后访问于 2023 年 11 月 22 日。6Transformer 是一种基于注意力机制的序列模型,最初由 Google 的研究

10、团队提出并应用于机器翻译任务。9大模型合规白皮书构的出现为代表。从2013年的Word2Vec7到2017年的Transformer,都标志着深度学习模型正走向一个全新的时代。在该阶段,如GPT8和BERT9等预训练模型逐渐成为主流。全面爆发期(2020-至今):该阶段是预训练大模型阶段。以GPT为代表,预训练大模型处于快速发展的阶段,特别是OpenAI10推出的GPT-3和GPT-4,标志着大模型技术正迈向新高度。机器学习有三种主要的方式,分别是监督学习、无监督学习、强化学习。监督学习(SupervisedLearning):“模板规范”(投喂好的资料),我们向模型投喂带有标签的数据(包括数

11、据特征和期望的输出值),让算法学习输入和输出之间的映射关系。经典的监督学习包括分类和回归。分类:例如学习大量猫和狗的图片和标签,当模型接收新的动物图片时可以将其根据特征识别是猫还是狗;回归:例如学习猫的产地、毛色、习性等特征,并将猫的价值作为输出标签进行训练,当模型接收新的猫咪图片时可以根据特征预测猫的价值。无监督学习(UnsupervisedLearning):“开卷有益”(多投喂资料),我们向模型投喂不带标签的数据,让模型自行寻找其中的规律,并进行处理。经典的无监督学习包括聚类和降维。聚类:例如学习大量房屋的信息,模型自行寻找其中的价格、面积、户7Word2vec,是一群用来产生词向量的相

12、关模型。这些模型为浅而双层的神经网络,用来训练以重新建构语言学之词文本。https:/en.wikipedia.org/wiki/Word2vec,最后访问于 2023 年 11 月 22 日。8GPT,全称 GenerativePre-TrainedTransformer(生成式预训练 Transformer 模型),是一种基于互联网的、可用数据来训练的、文本生成的深度学习模型。https:/en.wikipedia.org/wiki/Generative_pre-trained_transformer,最后访问于2023 年 11 月 22 日。9BERT(BidirectionalEnc

13、oderRepresentationsfromTransformers)是一种预训练的深度学习模型,用于自然语言处理任务,基于 Transformer 架构的双向编码器,通过无监督的学习方式预训练语言表示,以便能够捕捉语言的上下文信息。10OpenAI 是在美国成立的人工智能研究公司,核心宗旨在于“实现安全的通用人工智能(ArtificialGeneralIntelligence,AGI)”,使其有益于人类。https:/en.wikipedia.org/wiki/OpenAI,最后访问于 2023 年 11 月 22 日。10大模型合规白皮书型的规律,并自动将相同类型的房屋进行汇总。降维:例

14、如学习大量房屋的信息,模型自行寻找其中用户决策最关心的因素,在保留价格和其他少量辅助数据的同时对房屋数据进行压缩,以便简化建模。强化学习(ReinforcementLearning):“创意引导”(进行条件反射),我们向模型设置特定环境,让模型在其中采取行动,我们再对其进行反馈,让模型从反馈中学习以便优化下一次的行动。这一过程就类似以条件反射的方式训练小狗。在机器学习领域的早期阶段,研究者们的主要关注点是基于统计、线性回归和决策树等的简单模型。早期模型具有以下特点:简单性。早期的模型,如线性回归和逻辑回归,是基于明确的数学方程,使其容易被理解和解释。计算消耗低。由于模型的简单性,其在计算上相对

15、高效,不需要大量的计算资源。表示能力存在上限。虽然早期模型在特定方面表现良好,但其表示能力有限,尤其体现在处理复杂任务和非线性问题上。大模型早期所面临的主要局限性包括:存在数据依赖:早期的模型对于大量高质量数据有极高的依赖性。在没有足够训练数据的情况下,这些模型往往难以达到令人满意的性能,但获取、清洗、标注这些数据却昂贵且极为耗时。缺乏可解释性:大模型通常被视为“黑盒”,即模型的内部工作原理很难被理解。由于用户需要理解模型的决策过程,模型的解释性不足在很多关键领域(如医疗和司法)构成障碍。泛化能力不足:尽管早期的大模型在特定任务中表现性能优秀,但其在新数据或新场景中的泛化能力仍受到质疑。存在环

16、境和任务依赖:早期的AI模型通常需要根据特定任务定制和调11大模型合规白皮书整,这意味着为特定任务训练的模型可能难以直接应用于其他任务。模型具有一定偏见:由于训练数据往往包含现实世界的偏见,大模型可能反映这些偏见,导致应用于实际场景时出现歧视或不公平的决策。安全性和稳定性不足:由于早期大模型的复杂性,其易受到对抗性攻击或在特定条件下表现不稳定。以上局限性不仅为 AI 领域的研究者和工程师带来挑战,也为 AI 技术的未来发展和应用提出反思和探索的方向。随着技术发展,许多问题已经得到解决或缓解。(二)深度学习的崛起深度学习从其最初的简单尝试到现今所达到的辉煌高峰,不仅展现了技术的快速发展,更揭示了

17、人类在追求智慧和知识上的不懈努力。深度学习源自人类对人脑工作原理的好奇和模仿,意图借助数学和算法的力量,赋予计算机对信息的处理和认知能力。随着技术日益成熟,深度学习赋予计算机识别图像、处理自然语言甚至复杂决策的能力,不仅体现技术进步,也标志人工智能正逐步走向更加深入、广泛的应用领域,为人类生活带来无尽可能性。因此,深度学习的崛起可以被视为人类科技史上的一大里程碑。神经网络的早期探索。1957 年,FrankRosenblatt 提出感知器模型,被称为最简单的神经网络,通过简单的线性组合实现分类任务。尽管当时的应用领域有限,但其为后续神经网络的发展奠定了基础。19 世纪 80 年代,Rumel-

18、hart、Hinton 及其团队引入了反向传播算法,通过多层神经网络训练,为复杂模型和任务提供强大工具。数据与计算能力的融合。21 世纪初,互联网的广泛传播和智能设备的普及,使得数据呈现指数级增长,为深度学习提供丰富的训练数据。同时,硬件技术也在飞速发展,NVIDIA 等厂商投入 GPU 研发,其能够大幅度加速数值计算,尤其是深度学习中的矩阵运算,软硬件的进步大大加速了模型的训练过程。12大模型合规白皮书关键技术突破与模型创新。1997 年,Hochreiter 和 Schmidhuber 提出长短时记忆网络(LongShort-TermMemory,LSTM),解决了循环神经网络的梯度消失/

19、梯度爆炸的问题,使得神经网络可以更好的处理长文本内容,为序列数据的处理开辟了新天地。1998 年,YannLeCun 及其团队提出 LeNet-5,但真正让深度学习走向世界舞台的是 2012 年由 AlexKrizhevsky 等人设计的AlexNet,其在 ImageNet 挑战赛中大胜,展示了深度学习在图像处理上的潜力。2014 年,生成式对抗网络(GenerativeAdversarialNetworks,“GAN”)被提出。GAN 的原理是通过竞争机制来逐步提高生成器的准确性。2016 年横空出世击败围棋世界冠军李世石的 AlphaGo,就是基于 GAN 架构训练的模型。2017 年,

20、Google 提出 Transformer 架构,此后 BERT、GPT 等模型皆以其为基础,在自然语言处理任务中达到新高度。(三)GPT等代表性大模型的影响Transformer 架构的优点是可以并行处理输入序列的所有元素,能够捕捉长序列内容的关联关系,因此 Transformer 架构不再受到“短时记忆”的影响,有能力理解全文,进而 Transformer 成为自然语言处理的主流架构。一个原始的 Transformer 架构由编码器(Encoder)和解码器(Decorder)两部分构成,其中编码器用于将输入序列转换为一系列特征向量,解码器则将这些特征向量转换为输出序列,即:输入内容编码器

21、解码器输出内容。如果给编码器输入一句英语“Sheisastudent”,解码器返回一句对应的中文“她是一名学生”。Transformer 的架构和自注意力机制能够实现这些的关键在于“将词汇转换为词向量,并通过多头注意力机制(Multi-HeadAttention)和前馈神经网络(Feed-ForwardNetwork)两个子层进行处理”。第一步:模型对接收到的输入序列文本 Token 化,Token 可以被理解为文本的基本单元,短单词可能是一个 Token,长单词可能是多个 Token。Token 是 GPT 的收费单元,也是源于此。第二步:将 Token 转换成一个数字,成为 TokenID

22、,因为计算机语言只13大模型合规白皮书能存储和运算数字。第三步:将TokenID传入嵌入层(EmbeddingLayer),转换为词向量(WordEmbedding),词向量是一串数字。可以将这个过程想象为将一个单词放到多维空间中,每个数字就表达了这个单词某个维度的含义,一串数字所能表达和蕴含的信息量远多于 TokenID的一个数字,可以记载这个单词的词义、语法和不同语境、语序中的变化关系。第四步:对词向量的语序和语境进行位置编码,形成位置向量。上文提到语境和语序对理解词义至关重要。之后将词向量合并位置向量,将合并后的结果传给编码器,这样模型既能理解词义也能理解语境和语序。第五步:接收到上述信

23、息后,编码器中的多头注意力机制将会运作,捕捉其中的关键特征,编码器在处理时不仅会关注这个词与临近的词,还会关注输入序列中所有其他词,将输入的信息根据上下文进行调整,输出了降维后的向量。第六步:进入编码器的前馈神经网络处理,前馈神经网络“思考”之前步骤中收集的信息,并增强模型的表达能力,尝试进行预测。第七步:降维后的向量将继续传输给解码器运算。解码器具有带掩码的多头注意力机制,解码器在处理时仅关注这个词及其之前的词,遮盖输入序列中后面的内容,并结合已经生成的文本,保持未来输出文本的时间顺序及逻辑连贯性。第八步:进入解码器的前馈神经网络处理,解码器中的前馈神经网络与第六步类似,也是增强模型的表达能

24、力。第九步:解码器的最后处理环节经过 linear 层和 softmax 层,这两个子层将解码器输出内容转换为词汇表的概率分布,概率分布反映下一个 Token 生成概率。通常模型选择概率最高的 Token 作为输出,生成输出序列。因此解码器本质上是在做“单词接龙”的游戏,猜下一个输出单词。14大模型合规白皮书图 1近年来大语言模型进化树11从图 1 可以看出,经过演变,大模型大致分为三种:其一是舍弃 Decoder、仅使用 Encoder 作为编码器的预训练模型,以 Bert 为代表,但 Bert 未突破ScalingLaws,Encoder-Only 分 支 在 2021 年 后 逐 渐 没

25、 落。其 二 是 同 时 使 用Encoder、Decoder 的预训练模型,代表模型有清华大学的 chatGLM。其三是舍弃Encoder、仅使用 Decoder 作为编码器的预训练模型,以 GPT 为代表,其通过预测下一个单词,基于给定的文本序列进行训练。GPT 最初主要被视为文本生成工具,而 GPT-3 的推出成为该分支发展的历史性时刻。自 GPT-3 问世后,不断涌现出诸多如ChatGPT、PaLM、GPT-4等优秀的大模型,Decoder-Only分支现发展势头强劲。1.大模型带来的效率与准确度革命GPT 及其他大模型为当今的生产效率带来了前所未有的革命性提升。传统11SeeJinf

26、engYangetal.,HarnessingthePowerofLLMsinPractice:ASurveyonChatGPTandBeyond,https:/arxiv.org/pdf/2304.13712.pdf.15大模型合规白皮书上,数据处理、内容生成、决策支持等任务都需要大量人力支持,且伴随着可能的人为错误和效率不高等问题。然而,大模型通过其强大的计算能力和广泛的知识基础,使得这些任务在短时间内得以高效完成。无论是企业内部的行政管理、市场分析,还是产品设计、客户服务,大模型都能够提供快速、准确且高质量的输出。这种技术驱动的生产效率革命不仅大幅度减少企业的运营成本,也为新商业模式和新

27、机遇创造可能性。大模型的出现也标志着信息处理和知识推断的准确性革命。大模型代表了可以更深入、更广泛地理解和处理人类语言的能力,使得很多任务的执行准确性得到前所未有的提高。大模型背后的深度学习算法使得系统能够从大量数据中提取规律和关系。与此同时,模型的庞大规模意味着它们能够记忆和处理的细节越来越丰富,这确保了其在诸如文本解析、情感分析和复杂问题回答等任务中的出色表现。传统的机器学习模型通常需要针对特定任务进行训练,而GPT 之类的模型由于其通用性,可以被微调以适应特定的领域或任务,从而在医学、法律、工程等专业领域中展现出惊人的准确性。在机器翻译、图像识别等许多应用场景中,大模型相较过去错误率显著

28、降低,准确性的提高对于如医疗诊断和自动驾驶汽车等关键领域具有特殊重要性。2.大模型带来的机会与挑战大模型当前已经覆盖了许多领域,为我们的日常生活、工作和娱乐带来了深刻的变革。例如,在零售业,大模型能够根据消费者的购买记录和浏览习惯为其生成个性化的购物推荐;在新闻和媒体领域,它可以快速地为记者生成初稿或摘要,加速新闻的传播速度;在娱乐领域,音乐、艺术和电影制作人开始尝试利用 AI 生成原创作品。同时,大模型在医疗、金融和交通领域的应用也都在逐步展开,为我们的健康、财富和出行安全提供了前所未有的支持。例如:医药行业:在药物研发领域,传统方法需要合成大量化合物,并且研发时间长、成本高,大模型的引入大

29、大加快了药物的研发速度,其中以蛋白质结构预测为典型。例如,生物技术公司安进使用NVIDIA的BioNe-16大模型合规白皮书Mo模型,显著减少了分子筛选和优化的时间。金融服务:金融服务行业正在经历技术驱动的数字转型,其中大模型在客户服务、营销优化、投资指导、风控与反欺诈等环节扮演重要角色。例如,FinancialTransformer能够理解非结构化的金融数据,对市场深度分析、投资决策提供支持。零售行业:零售商正使用大模型以提升客户体验,实现动态化定价、细分客户、设计个性化推荐以及可视化搜索。例如,生成式AI会使用包含产品属性的元标签以生成更加全面的产品描述,包括“低糖”、“无麸质”等术语。高

30、等教育:智能辅导系统、自动化论文评分以及各学科相关的大语言模型已经陆续在各大高校得到应用。例如,佛罗里达大学的研究人员使用超级计算机开发了一种自然语言处理模型,使计算机能够读取和解释存储在电子健康记录临床笔记中的医学语言,甚至实现自动绘制图表。此外,基因组学大语言模型等专业大模型也已经有落地案例。公共服务:政府机构人员可以使用生成式AI提高日常工作的效率,大模型的分析能力能够帮助其处理文件,加快办事效率。由大语言模型驱动的AI虚拟助手和聊天机器人可以即时向在线用户提供相关信息,减轻电话接线员的压力。然而,这些应用也带来了诸多争议。例如,数据隐私是公众最大的关切之一,原因是生成式 AI 的许多应

31、用都依赖于大量的个人数据。大模型内容生成也可能会模糊真实和虚构的界限,从而引发道德和法律上的困境。大模型的透明性和公正性也是广大公众、企业和政府关心的焦点。在数据收集、处理到跨境传输的全过程中,每一个阶段都存在特定风险,如侵犯隐私、泄露商业秘密或跨境数据违规流通等。另外,随着人们对大模型的使用频次逐渐增加,可能出现人们对大模型过于依赖而不再进行批判性思考的现象,从而引发人们对于自身思维能力倒退、价值创造能力降低的担忧。17大模型合规白皮书二、全球大模型监管现状(一)主要国家和地区加快完善大模型监管2023 年 11 月 1 日,首届人工智能安全全球峰会在布莱切利园正式开幕,会上包括中国、美国、

32、欧盟、英国在内的二十余个主要国家和地区共同签署了布莱切利宣言(TheBletchleyDeclaration)12,承诺以安全可靠、以人为本、可信赖及负责的方式设计、开发、部署并使用 AI。布莱切利宣言肯定了 AI 的广泛应用前景,同时指出了 AI(尤其是包括大模型在内的前沿高功能通用 AI 模型)在包括网络安全和生物技术等领域所可能造成的风险,以及需要解决的包括保护人权、透明度和可解释性、公平性、问责制、监管、人类监督与控制、歧视与偏见、隐私与数据保护、合成欺骗性内容、AI 滥用等问题,并确认 AI 开发者需要对该等风险及问题承担重大责任。各国家和地区共同承诺在国际层面识别共同关注的前沿 A

33、I 安全风险,并承诺在各国家和地区制定各自的基于风险的政策。最后,布莱切利宣言表达了支持建立一个具有国际包容性的前沿 AI 安全科学研究网络的决心。布莱切利宣言作为目前全球针对 AI监管的前沿文件,显示了全球对于 AI 发展的密切关注。目前,就欧盟、美国及英国而言,其均将大模型作为人工智能的一部分进行监管,因此,对于境外大模型的监管现状的梳理,需要与整体人工智能监管现状相结合。1.欧盟(1)立法现状2016 年 10 月,欧盟议会法律事务委员会颁布欧盟机器人民事法律规则(EuropeanCivilLawRulesinRobotics)13,正式揭开了欧盟人工智能与大模型合规监管的立法篇章。此后

34、,欧盟陆续颁布了与人工智能和大模型合规监管密切相关的一系列法案及政策,其中尤以人工智能法案(ArtificialIntelli-12https:/www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023,最后访问于 2023 年 11 月 22 日。13https:/www.europarl.europa.eu/d

35、oceo/document/TA-8-2017-0051_EN.pdf,最后访问于 2023 年 11 月 22 日。18大模型合规白皮书genceAct)14最值得注意。目前,人工智能法案已经进入最终谈判阶段,一经通过,其可能成为全球第一部专门针对人工智能进行综合性立法的区域性法规。总体来看,欧盟针对人工智能与大模型合规监管的政策采取了专项法案为主、现存法规为辅的结构,以人工智能法案作为治理核心,结合可能涉及的其他相关领域的立法(包括数据及个人信息、市场监管等),共同构成了包括大模型在内的人工智能监管体系。(a)人工智能法案2021 年 4 月,欧盟发布了人工智能法案的提案。2022 年,欧

36、盟委员会综合各方意见,对人工智能法案进行了进一步修正。2023 年 6 月,人工智能法案再次修正,并经欧洲议会投票通过(“人工智能法案”)15。按照欧盟立法程序,修正法案下一步将正式进入欧盟委员会、议会和成员国三方谈判协商的程序,并确定最终版本。人工智能法案是欧盟首部有关人工智能的综合性立法,其以人工智能的概念作为体系原点,以人工智能的风险分级管理作为制度抓手,以人工智能产业链上的不同责任主体作为规范对象,以对人工智能的合格评估以及问责机制作为治理工具,从人工监管、隐私、透明度、安全、非歧视、环境友好等方面全方位监管人工智能的开发和使用,详细规定了人工智能市场中各参与者的义务,主要内容如下:(

37、i)以人工智能(ArtificialIntelligence,“AI”)概念为体系原点根据人工智能法案,“AI 系统”是指一种以机器为基础的系统,该系统在设计上具有不同程度的自主性,可以为实现明确或隐含的目标生成如预测、建议或决策等的输出结果,对物理或虚拟环境造成影响。而“大模型”是指在广泛的数据上进行规模化训练的人工智能模型,其设计是为了实现输出的通用性,并能适用各种不同的任务。值得注意的是,较为狭窄、不普遍的、无法适应广泛任务的预训练模型不属于人工智能法案所规制的大模型。14详见下文第 1(1)(a)段。15https:/www.europarl.europa.eu/doceo/docum

38、ent/TA-9-2023-0236_EN.pdf,最后访问于 2023 年 11 月 22 日。19大模型合规白皮书(ii)以责任主体为规范对象人工智能法案将 AI 系统的责任主体划分为提供方、部署方、进口方、分销商四种主要角色。其中,“提供方”指开发或拥有已经开发的 AI 系统,以自己的名义将其投放市场或在欧盟投入服务的自然人或法人;“部署方”指在欧盟境内在其权限范围内使用 AI 系统的自然人或法人(不包括在个人非专业活动过程中使用),包括使用 AI 系统以提供用户服务的商业机构等;“进口方”指在欧盟设立或者位于欧盟境内,并将带有欧盟境外自然人或法人名称或商标的 AI 系统投放到欧盟市场的

39、自然人或法人;“分销商”指供应链中提供方和进口方之外的在欧盟市场中提供 AI 系统且不改变其系统属性的自然人或法人。(iii)风险分级标准对于 AI 系统涉及的风险,欧盟主要区分为“不可接受的风险”、“高风险”、“有限风险”和“最小风险”四类,具体如下:存在不可接受风险的AI系统。存在下列情况的AI系统均可能属于存在“不可接受的风险”的AI系统,欧盟成员国内将完全禁止该等AI系统投入市场或者交付使用:(1)采用潜意识技术或有目的的操纵或欺骗技术;(2)利用个人或社会群体的弱点(例如已知的人格特征或社会经济状况、年龄、身体精神能力);(3)利用人的社会行为或人格特征进行社会评分;(4)在公众场所

40、的“实时”(包括即时和短时延迟)远程生物识别系统。高风险AI系统。存在下列情况的AI系统均属于存在“高风险”的AI系统,其投放市场及交付使用均受到严格的管控并需履行评估及备案要求:-AI系统同时满足下述两项条件:(1)属于欧盟统一立法规制范围内的产20大模型合规白皮书品的安全组件或为该范围内的产品本身;并且(2)根据欧盟统一立法规制需要就健康或安全问题经过第三方合格评估方可投放市场或交付使用;-AI系统同时满足下述两项条件:(1)存在可能损害环境或损害人类健康、安全、基本权利的重大风险;并且(2)符合分级标准且在规定的领域内使用,包括生物特征识别AI系统、关键基础设施AI系统、可能决定人的受教

41、育或职业培训机会的AI系统、作为超大型在线社媒平台16拟在其用户内容推荐中使用的AI系统等。有限风险AI系统。不属于存在不可接受的风险或高风险的AI系统,但需要履行一般合规要求,属于存在“有限风险”的AI系统,主要包括与人类互动的AI系统、用于情绪识别的AI系统、用于生物特征分类的AI系统以及生成深度合成内容的AI系统。最小风险AI系统。在上述三种类型之外的AI系统,均属于存在“最小风险”的AI系统,主要包括允许自由使用AI的电子游戏、邮件过滤器等。(iv)风险分级监管对于前述不同的风险等级,人工智能法案采取了不同程度的监管措施,具体包括:对于存在不可接受风险的AI系统,严厉禁止使用;对于高风

42、险AI系统,要求其同时履行:(1)高风险AI系统的特殊合规要求(“特殊合规要求”);以及(2)AI系统的一般合规要求(“一般合规要16指根据欧盟第 2022/2065 号法规第 33 条的规定的超大型在线平台的社交媒体平台,主要为用户数量超过 4500 万的社交媒体平台。21大模型合规白皮书求”)。其中,特殊合规要求主要包括内部合规及外部认证措施:-内部合规措施须贯穿系统全生命周期,包括:(1)形成风险管理体系;(2)实施数据治理;(3)形成技术文档;(4)自动记录运行日志;(5)保证透明度;(6)保证人工监督;(7)保证系统的准确性、稳健性和网络安全性。-外部认证措施均应当于上市前完成,包括

43、:(1)根据系统功能不同,进行自评估或者第三方评估;(2)在欧盟公共高风险AI系统数据库中备案;(3)使用CE(ConformityEuropean,“CE”)标识。对于有限风险AI系统,履行一般合规要求即可。就一般合规要求而言,主要为透明度要求,具体要求根据AI系统的不同类型而有所区分:-针对与人类互动的AI系统,系统使用者需要告知人类其正在与AI系统进行互动;-针对情绪识别及生物特征分类AI系统,系统使用者需要告知系统识别对象上述系统的存在,并且需要就生物识别数据的获取取得系统识别对象的同意;-针对生成深度合成内容的AI系统,系统使用者需要对外告知该等内容是由AI生成或操纵的,而并非真实内

44、容。对于最小风险AI系统,不作强行性干预。(v)各类责任主体的义务总体而言,提供方是 AI 系统的最终负责人,其需履行的义务最为全面,责任承担亦为最重,部署方需履行风险防范义务,其他参与者需履行以审查义务为核心的一系列的合规义务,具体如下:22大模型合规白皮书 提供方的义务主要包括:(1)执行前述所有特殊合规要求;(2)在系统上标明其名称、注册名称或注册商标,以及其联系信息;(3)确保执行人工监督的人员精通自动化或者算法偏见的风险;(4)执行数据保护,包括数据保护影响评估并发布摘要,以及提供输入数据或所使用的数据集的任何其他相关信息的说明;(5)建立书面质量管理体系;(6)日志及文档保存;(7

45、)对不当行为采取纠正措施并告知有关机构;(8)提交欧盟合格声明,并在系统上市后由国家监督机构和国家主管部门保管;(9)境外提供方应在欧盟境内设置代表(“授权代表”),以全权履行人工智能法案项下提供方的义务并配合主管机构的工作。部署方的义务主要包括:(1)监督与风险控制;(2)数据保护;(3)履行备案,作为欧盟公共当局或者欧盟机构、团体(“公共当局”)的部署方或者属于数字市场法案17守门人的部署方,需要在使用系统前在欧盟公共高风险AI系统数据库中备案,其余高风险AI系统的部署方可自愿备案;(4)履行高风险AI系统的基本权利影响评估,以确定系统在使用环境中的影响。部署方为公共当局的,应公布评估的结

46、果摘要,作为上述备案的一部分。进口方主要义务包括:确保AI系统提供方履行了自评估或第三方评估义务、形成技术文档义务、授权代表任命义务(如需),并确保AI系统带有CE标识,附有所需的说明文件。(vi)大模型的特殊合规义务大模型的提供方在大模型上市前,应确保该模型符合下述要求:(1)以适当的方法识别、减少重大风险,并记录剩余的不可缓解的风险;(2)只纳入经过适当的大模型数据治理措施的数据集,且须审查数据来源的适当性和可能的偏差以及缓解措施;(3)在设计和开发期间进行测试及评估,以在其整个生命周期内达到适当的性能、可预测性、可解释性、可纠正性、安全性和网络安全水平;(4)减少能耗及浪费,提高整体效率

47、,具有测量和记录能耗以及可能产生的其他17详见下文第 1(1)(b)段。23大模型合规白皮书环境影响的能力;(5)制定技术文件和使用说明;(6)建立质量管理系统,以记录对上述义务的遵守;(7)在欧盟数据库中备案该大模型;(8)在其大模型投放市场或投入使用后的 10 年内,将技术文件交由国家主管部门保存。(b)数据隐私、算法及知识产权相关法律法规针对大模型及其所服务的 AI 系统所涉及的数据、个人信息、算法以及知识产权等领域,欧盟现有的相关规定在各自适用的范围内实际上起到了垂直监管的作用。该等垂直监管类的主要规定如下:2018 年 5 月,欧盟委员会的通用数据保护条例(GeneralDataPr

48、otec-tionRegulation,“GDPR”)18生效。GDPR 从数据控制者和处理者的责任以及数据监管等方面重新调整了欧盟个人数据保护策略。另外,GDPR 关于透明度的原则以及自动化决策有关的规定也为算法设计者设置了相关义务,包括确保算法训练数据痕迹可查义务以保证算法训练数据真实、对算法部分技术原理进行阐释义务以保证算法目标服务人群充分了解情况,以及算法的非歧视机制等。2022 年 10 月,欧盟委员会颁布了数字服务法案(DigitalServiceAct,“DSA”)19,其适用对象为数字服务供应商。DSA 将适用对象划分为管道服务商、缓存服务商、托管服务商、在线平台及在线搜索引擎

49、,并特别定义了超大型在线平台(VeryLargeOnlinePlatform,“VLOP”)和超大型在线搜索引擎(VeryLargeOnlineSearchEngines,“VLOSE”)。上述主体各自承担不同的合规义务,其中 VLOP 及 VLOSE 承担的合规义务最重。DSA 的立法宗旨为加强网络平台的内容审查义务、非法商家打击义务、信息透明义务(例如需向消费者明确透传算法推荐及定向广告内容),帮助建立透明、安全、可预测、可信任的网络环境,保护网络平台用户的权益。2022 年 11 月,欧盟委员会颁布了数字市场法案(DigitalMarketAct,“DMA”)20,引入“守门人”这一概念

50、,对从事在线中介服务(如应用商店)、18http:/data.europa.eu/eli/reg/2016/679/2016-05-04,最后访问于 2023 年 11 月 22 日。19http:/data.europa.eu/eli/reg/2022/2065/oj,最后访问于 2023 年 11 月 22 日。20http:/data.europa.eu/eli/reg/2022/1925/oj,最后访问于 2023 年 11 月 22 日。24大模型合规白皮书在线搜索引擎、社交网络服务、即时通讯服务、视频共享平台服务、虚拟助手、网页浏览器、云计算服务、操作系统、在线市场和广告服务等服务

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 研究报告 > 其他

移动网页_全站_页脚广告1

关于我们      联系我们       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号  |  icp.png浙ICP备2021020529号-1 浙B2-2024(办理中)  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服