1、可信虚拟人白皮书1可信虚拟人白皮书(2023)虚拟现实与元宇宙产业联盟2023 年 09 月可信虚拟人白皮书前 言近年来,作为元宇宙中真人沉浸式体验的重要载体和 AIGC 的关键要素,虚拟人技术产业乘势而起,在元宇宙和 AIGC 双轮产业进步下迎来了新一轮发展热潮,在影视、传媒、金融、营销等行业呈现出强劲的增长态势。但是,虚拟人产业在快速发展的同时,也迎来了一系列风险隐患、伦理思考和法律挑战,如近日通过虚拟人软件“AI 换脸”“AI 换声”以替换、伪造他人声音形象,形成高度写实逼真且肉眼难以分辨的音视频影像,从而开展虚假信息传播、造谣生事,甚至诽谤和诈骗等不法活动的案例频繁出现,在隐私保护、内
2、容合规、问责追溯和伦理等方面带来诸多风险和挑战。当前国内外针对可信虚拟人的研究和实践还尚处于初期阶段,在企业侧、行业侧和监管侧尚未形成一套完整的指导方针和行动方案,虚拟人的可信建设刻不容缓。什么是可信虚拟人?可信虚拟人涉及虚拟人全生命周期与可信要素的结合,在虚拟人技术研发、生成服务、运营使用等各个环节和可信手段进行紧密融合,即虚拟人技术研发可信建设、生成平台可信建设、运营使用可信建设等,使其符合标准规范、伦理道德等方面的可信要求。本白皮书围绕“虚拟人全生命周期的可信建设”这一关键问题,结合可信手段将可信要素与虚拟人全生命周期进行深度融合,构建可信虚拟人框架体系,总结提出七大可信目标,即:身份及
3、权利保障、隐私保护与增强、生成内容安全、可靠性可控性、可理解可解释、无偏见多样化、可问责可追溯。探讨可信虚拟人发展路径和具体能力要求,从功能完备度、系统可信能力、产业化能力三大维度构建可信虚拟人分级评估体系。实现手段上,白皮书从可信技术和可信管理两方面,针对技术研发阶段、生成服务阶段、运营使用阶段的不同主体的可信能力建设提出建议,推动行业合规化发展。未来,以可信原则指导发展成为虚拟人产业安全、可控、高质量发展的必经之路。业界亟须将虚拟人的高速发展与内容安全、隐私保护、数据安全、算法合规、系统可控等诸多因素相互协同,通过虚拟人的可信建设实现对技术支持方和服务提供者的道德约束,指导其所提供产品满足
4、法规要求和伦理要求。未来,更需汇聚行业普遍共识,探索建设新模式;推动技术创新,深化技术融合;加强流程管理,完善可信生态;构建标准体系,加快合规发展;完善政策体系,推动伦理治理;规范场景应用,打造示范项目,从而促进社会对虚拟人的认知、信任与支持。可信虚拟人白皮书本文件由 XRMA 联盟虚拟化身特设组制订,并负责解释。本文件发布日期:2023 年 9 月 18 日。本文件由虚拟现实与元宇宙产业联盟提出并归口。本文件归属虚拟现实与元宇宙产业联盟。任何单位与个人未经联盟书面允许,不得以任何形式转售、复制、修改、抄袭、传播全部或部分内容。本文件牵头单位:中国信息通信研究院本文件参编单位:上海商汤智能科技
5、有限公司、中国工商银行股份有限公司、厦门黑镜科技有限公司、东北大学、世辉律师事务所、讯飞幻境(北京)科技有限公司、北方工业大学、中国移动通信研究院、维沃移动通信有限公司、拓元(广州)智慧科技有限公司、北京度量科技有限公司、无锡市城市运行管理中心、二六三网络通信股份有限公司、北京世纪好未来教育科技有限公司、绿洲创元数字科技(漳州)有限公司、北京特美通传媒科技有限公司、寰宇信任(北京)技术有限公司、福建超数科技有限公司、北京美舫科技有限公司本文件参编人:许闻苑、杨燕、高天寒、施佳子、肖扬、张庭翔、吴松城、杨建顺、肖悦、米庆巍、张晋、李家豪、林思宇、王英博、胡逸、朱伯虎、毛储懿、郑嘉煌、石慧、雷景伊
6、、周博、田密、刘子韬、任亚军、王婷、吴文熙、郭乐、宿盛禹、宋园艺、李文凯、艾芳、郭悦、罗振华、孙喜庆、王辉柏、赵鹏、邓远达、李慧、夏文燕、刘冉、王亚忠、郭飞、刘磊、郑紫阳、徐东升、刘上免责说明:本文件免费使用,仅供参考,不对使用本文件的产品负责。可信虚拟人白皮书目录1.可信虚拟人发展背景.41.1 元宇宙和 AIGC 浪潮下,虚拟人产业迎来发展热潮.41.2 市场机遇下面临伦理及法律等多重风险.41.3 全球范围虚拟人的可信实践.102.可信虚拟人体系构建.132.1 什么是可信虚拟人.132.2 虚拟人可信建设的必要性.132.3 可信虚拟人体系构建.143.可信目标、可信手段、分级原则.1
7、73.1 虚拟人组织可信建设目标.173.2 虚拟人组织可信能力建设手段.213.3 虚拟人组织可信能力建设的分级原则.284.可信虚拟人能力建设建议.314.1 技术研发阶段建设建议.314.2 生成服务阶段建设建议.374.3 运营使用阶段建设建议.434.4 全生命周期建设建议.455.可信虚拟人展望和建议.49参考文献.1可信虚拟人白皮书1.可信虚拟人发展背景1.1 元宇宙和 AIGC 浪潮下,虚拟人产业迎来发展热潮1.虚拟人的定义和分类业界虚拟人概念繁杂,当前对虚拟人的具体定义尚未有统一的论述,一般而言,虚拟人指通过计算机图形学、计算机视觉和人工智能等技术,进行形象、声音、动作等模型
8、训练后,借助真人或计算驱动、在多模态输出设备呈现的与人类形象接近的虚拟人物。根据技术维度、身份维度、视觉维度、外形风格等不同角度,虚拟人有多种分类方式。其中,根据与现实自然人是否有映射的身份维度分类方式划分,可将虚拟人分为真人映射型和非真人映射型两类。基于真人自身映射的虚拟化身为本白皮书重点聚焦的研究对象。2.虚拟人产业高速发展作为元宇宙中真人沉浸式体验的重要载体和 AIGC 的关键要素,伴随元宇宙和 AIGC 双轮产业进步,虚拟人迎来新一轮发展热潮,在服务、营销等行业迎来爆发式增长。根据 IDC 数据显示,2026 年中国 AI 数字人市场规模将达到 102.4 亿元。据天眼查数据显示,截至
9、 2023 年 7 月,现存“数字人”相关企业 68.7 万余家,其中 2022 年新增注册企业 26.5 万余家,新增相关企业注册增速达 84.2%。当前,虚拟人产业不断升级,商业模式多元化发展,广泛应用于金融、传媒、营销、文旅等各行各业,呈现出日新月异的变化。伴随技术革新与进步,人工智能的发展将促进虚拟人的生成效率、理解能力与情感互动能力迅速进步;空间计算、动作捕捉、实时云渲染、空间音视频等技术的深度融合将促进虚拟人与场景应用深度链接,为产业降本增效的同时持续提升用户的临场感受;虚拟人的角色定位和商业模式将根据场景需求与客户类型呈现出不同的价值表现。1.2 市场机遇下面临伦理及法律等多重风
10、险虚拟人产业规模和应用范围目前处于高速发展阶段,在抢抓市场机遇的同时,虚拟人产业也面临着一系列伦理、社会和法律问题,真假难辨的虚拟人在隐私保护、内容合规、问责追溯和伦理等方面带来诸多风险和挑战。本白皮书将从科技与法律、道德、伦理等方面的动态融合视角对虚拟人产业进行风险审视与探讨。可信虚拟人白皮书1.隐私安全所面临的风险虚拟人生成、运营、使用过程中面临非法获取与使用个人信息的风险。虚拟人涉及的隐私安全问题一直以来都被广泛关注,其在收集训练数据及后续输出信息等诸多环节(包括虚拟人的收集训练阶段或在对外提供服务、输出信息等过程)是否符合个人信息保护、是否符合隐私安全政策等要求,是目前实操中被关注的重
11、点问题。如在虚拟人生成、运营、使用等相关过程中存在任何非法获取、使用个人信息(包括但不限于姓名、证件号码、生物识别信息等)的,将可能侵犯公民个人信息,违反隐私安全、数据合规要求,并因此承担相应法律责任。在部分国外案例中,未经同意采集、使用他人的生物识别数据的行为被判定构成对个人隐私安全的侵犯,该侵权行为常被诉诸集体诉讼。专栏专栏 1:国外案例:国外案例案例 1:Facebook、Google、Microsoft、Amazon 违反 BIPA 相关案件案件详情:Facebook、Google、Microsoft、Amazon 违反伊利诺伊州生物识别信息隐私法(“BIPA”)相关案件是指 2020
12、 年在美国伊利诺伊州发生的集体诉讼案件,强调企业在使用人工智能技术处理用户数据时,应尊重用户肖像权、个人隐私并遵守相关法律法规。相关案件中,Facebook 因未经用户同意收集和存储面部识别数据并使用进行算法训练,最终同意支付 6.5 亿美元的赔偿。Google 因在未经适当通知和同意的情况下收集和存储个人生物识别数据而支付了 1 亿美元进行和解。Microsoft 则因在未经授权的情况下使用用户上传的照片来训练其面部识别技术被认定违反了 BIPA,法院支持了原告的不当得利损害赔偿请求。而 Amazon 则被指控通过其照片识别服务收集生物特征数据,但未向用户提供相关信息,并且法院支持了原告基于
13、 BIPA 的不当得利损害赔偿请求。互联网巨头在使用人工智能技术处理用户数据时,触犯 BIPA 引发集体诉讼,需承担损害赔偿责任。案例 2:Replika 被意大利政府机构宣布限制使用2023 年 2 月,意大利数据保护机构发布了一项紧急命令,禁止由美国公司 Luka Inc.开发的人工智能聊天虚拟人 Replika 处理意大利用户的个人数据。原因是 Replika 违反了欧盟通用数据保护条例中规定的透明度原则和义务,在收集和使用个人信息时,没有征得用户的同意,也没有设置相关隐私政策和安全措施对用户数据进行保护。聊天虚拟人收集和使用个人信息没有有效的法律基础和适当的隐私政策,未征得用户同意且未
14、设置安全措施保护。可信虚拟人白皮书案例 3:凯兰德杨诉 NeoCortext 公司案2023 年 4 月 3 日,美国演员凯兰德杨(Kyland Young)在美国加利福尼亚中区联邦地区法院对NeoCortext 公司提起诉讼,指控该公司的换脸应用 Reface 侵犯了加利福尼亚州的个人形象权。原告凯兰德杨表示,NeoCortext 公司在未经其同意的情况下擅自使用其肖像、图像、姓名和声音进行商业推广。他希望通过诉讼禁止 NeoCortext 公司将他的“姓名、声音、签名、照片或肖像用于商业目的”,并寻求金钱赔偿,同时要求认证拟议的集体诉讼。目前,此案仍在审理中。“换脸”类应用程序未经允许擅自
15、使用他人信息进行商业行为涉嫌侵权。国内虚拟人相关厂商存在用户隐私协议不规范,个人隐私、数据易被泄露和滥用问题。专栏专栏 2:国内案例:国内案例案例 1:“AI 换脸”App 侵权案2022 年 3 月,上海某公司的“AI 换脸”APP 让用户支付会员费使用古风汉服模特楼某提供的“换脸”视频模板。用户只需上传个人照片,将视频模板中的人脸替换为自己的人脸,即可生成换脸后的古风造型视频。除了五官发生实质性变化外,其余内容与原视频保持一致。楼某认为该公司侵犯了她的肖像权,将其诉诸法院。2022 年 12 月,法院判决支持楼某的诉讼请求,要求该公司停止侵权、赔礼道歉并赔偿损失。AI 换脸技术商用可能构成
16、对个人隐私权的侵害。案例 2:“AI 陪伴”软件侵害人格权案2023 年 4 月,公众人物何某将某款智能手机记账软件告上法庭。在该软件中,用户可以自行创设或添加“AI 陪伴者”,设定“AI 陪伴者”的名称、头像、与用户的关系、相互称谓等。何某认为,在其本人未同意的情况下,该软件中出现了以其姓名、肖像为标识的“AI 陪伴者”,同时,该软件通过算法应用,将该角色开放给众多用户,允许用户上传大量关于其本人的“表情包”。法院对该案件进行受理,认为被告软件未经同意使用原告姓名、肖像,设定涉及原告人格自由和人格尊严的系统功能,构成对原告姓名权、肖像权、一般人格权的侵害,遂判决被告向原告赔礼道歉、赔偿损失。
17、虚拟人相关软件未经允许使用他人姓名和肖像生成“AI 陪伴者”造成侵权。2.内容合规所面临的风险虚拟人的内容输入与模型训练阶段指工具开发者通过输入大量的文字、图像、视频、声音等(“训练素材”)对其模型进行训练,内容生成阶段系基于其上述模型的训练并根据使用者需求生成相应的创作内容。可信虚拟人白皮书在虚拟人的内容输入与模型训练阶段,存在非法使用训练素材及侵犯知识产权的风险。开发者需输入大量训练素材以供模型训练,训练素材的主要来源包括从资源方处批量购买、批量爬取互联网资源、通过开源网站获得资源等。在获取并使用相关训练素材时,开发者面临的内容合规问题,包括需要提前取得相关权利人的书面同意后方可将相关训练
18、素材进行下载、存储、使用等;未经相关权利人事先同意,利用虚拟人复制、发行、通过信息网络向公众传播相关文字、图像、音乐、视频等他人享有知识产权的内容的,将很可能构成侵犯他人知识产权。在虚拟人的内容输出阶段,存在侵犯个人人格权益、侵犯知识产权、生成虚假和不良信息、损害公共利益的问题。虚拟人的输出内容亦应符合合规要求,其合规性的判断标准应与真实世界主体输出内容合规性的判断标准原则保持一致,即从考虑其输出内容的合法合规性角度约束其不得侵犯其他主体的合法权益,同时也从其内容本身是否由创作者独立完成而并非抄袭的角度保护创作者的“智力成果”。首先,使用者在虚拟人的内容生成过程中可能涉及诸如恐怖主义、危害国家
19、安全、宣扬民族主义、种族歧视、暴力、色情、违反公序良俗等内容。这些内容不仅损害了社会公共利益,还有可能导致严重的法律后果,给个人、企业和国家带来负面影响,并有可能产生更加自动化和复杂的犯罪行为的可能性。其次,虚拟人在内容创作过程中不得侵犯他人的人格权益,如姓名权、肖像权、名誉权等,否则将严重损害当事人的人格权益,情节严重的有可能进一步构成侮辱、诽谤。再次,虚拟人的相关内容不得侵犯他人的经济性权益,如知识产权等。在数字时代,虚拟人有可能通过复制、传播侵犯他人的著作权、商标权、专利权等知识产权,这不仅仅是对原创者权益的侵害,也可能对整个知识产权保护体系造成破坏。最后,虚拟人在内容创作时,有可能产生
20、虚假、不真实、不准确、不客观的信息。这类内容往往具有误导性,容易引发社会恐慌,甚至引起错误决策。与此同时,这些信息可能会在互联网上快速传播,加剧负面效应。国外虚拟人内容合规方面的问题,主要在于以下几方面:基于使用数据对人工智能的不当训练、相关数据本身可能涉及对知识产权的侵犯,训练行为引发 AI 传播违规内容或虚假信息,以及利用 AI 技术实施诈骗行为等。专栏专栏 3:国外案例:国外案例案例 1:“Luda Lee”语言歧视案韩国的聊天 AI“Luda Lee”是一款可以模拟恋爱的人工智能型虚拟偶像,可根据用户的问题做出模拟真实人类的反应。2022 年,部分用户在和其聊天的过程中发现,在面对“残
21、疾人”“同性恋”“孕妇”等话题的讨论中,Luda Lee 表现出歧视,因此遭到了部分网友的抵制。可信虚拟人白皮书违规言论生成与传播:AI 型虚拟人在内容输出阶段可能出现生成群体歧视言论的风险。案例 2:桐生可可直播涉敏感话题事件日本虚拟主播 Hololive 进驻中国后,2020 年 9 月,其成员赤井心和桐生可可在直播中涉及敏感地域政治话题,其直播间遭到封禁。虚拟人直播时可能涉及不当言论、敏感话题或引发争议。案例 3:AI 换脸技术生成特朗普假图片2023 年 6 月,美国总统竞选人德桑蒂斯公关团队发布了一段视频,特意选用的“特朗普亲吻福奇”以及两人拥抱的图片,抨击竞选对手、前总统特朗普在任
22、时抗疫不力,后被证实该照片是 Deep fake 伪造。AI 换脸造成公众人物信息滥用,传播不实信息,引发社会恐慌、影响国际关系等。国内虚拟人内容合规相关的违法行为主要在于:假扮熟人进行诈骗、假扮公众人物进行商业化运作、利用AI 技术传播虚假信息、侵害虚拟人相关知识产权,以及传播低俗、恶意的行为及言论等。专栏专栏 4:国内案例:国内案例案例 1:AI 孙燕姿事件2023 年以来,B 站中的多位 UP 主通过 so-vits-svc(音色转换)的开源项目训练发布带有孙燕姿声音的歌曲,“AI 孙燕姿”在 B 站走红,“她”翻唱的半岛铁盒发如雪等歌曲播放量突破百万。尽管孙燕姿本人暂未对“AI 孙燕姿
23、”进行公开回应或提起诉讼,但这类创作仍涉及对孙燕姿姓名、声纹权利、对周杰伦词曲的著作权的侵害风险。侵犯人格权与知识产权:虚拟人内容生成阶段可能涉及未经同意而通过 AI 技术将公众人物的姓名、肖像、声纹进行商业化使用的行为。案例 2:“染染_Ranoca”抄袭事件2022 年 2 月,B 站 UP 主 Lemon 夹子发文称 B 站电竞旗下虚拟偶像“染染_Ranoca”的面部形象和其创作的虚拟主播“格蕾缇娅 Gretia”高度相似。2022 年 2 月 23 日,哔哩哔哩电竞官方发声,确认二者的确高度相似,称对相关运营人员和 VUP 艺人经纪部负责人都进行了相应的处罚,决定暂停使用该立绘形象。知
24、识产权保护与侵权:虚拟人形象面临被抄袭等知识产权保护问题,虚拟人形象制作可能涉及对其他虚拟人形象的抄袭冒用等问题。案例 3:柏凛 Porin 虚构拐卖事件2022 年 5 月 21 日,B 站一位名为“柏凛 Porin”的虚拟主播,发布了一则名为关于我消失了半年其实是被拐卖了这件事的视频。视频中,该主播提到:“自己消失半年,是因为自己被拐卖了,后来是被警察解可信虚拟人白皮书救。”经警方查证,该视频内容不属实。2022 年 6 月 1 日,B 站宣布该账号永久封禁。虚拟人生成内容环节可能涉及发布虚假信息、不实信息等问题。案例 4:“AI 换脸”新骗局2023 年 4 月,诈骗分子佯装为福建郭某的
25、好友,通过 AI 换脸和拟声技术生成和真人极为相似的虚拟人,与郭某进行视频聊天并借款 430 万元,郭某未经核实,转账受骗。不法分子利用个人生物数据生成真假难辨的虚拟人实施诈骗。3.难追溯问责当前,由于技术原因、法律认定标准等因素,追溯问责虚拟人背后的责任主体存在一定的难度。首先,难以通过虚拟人文件追溯生产平台和开发创作者。当前,虚拟人文件多以 3D 格式、图片、视频等形式存在,大多数生成平台并未对虚拟人文件进行可追溯标记,仅通过文件本身难以追溯到内容生产平台和虚拟人的创作主体。第二,内容生产涉及多个“环节”导致责任难以界定。虚拟人的生产过程涉及人工智能、图形渲染、音视频合成等多种技术的结合,
26、其创造和运营过程涉及多方参与。在生成和运营虚拟人的过程中,不同团队或个人可能分别负责设计、制作和推广等环节,当发生侵权事件时难以区分具体责任主体。第三,因技术开源、主体隐蔽导致难以追责。一方面,使用 AI 换脸的深度伪造部分技术源于开源社区,难以确定具体的责任主体;另一方面,生成式 AI 技术因其训练过程不公开(即“黑匣子模式”)、内容输出作品具有随机性、使用开源软件等问题导致更加难以明确追责。4.伦理风险虚拟人能够模拟人类的思维、情感和行为,并且具有一定的认知能力和交互能力,其拟人化可能带来一些伦理风险,包括但不限于:虚拟人基于其训练素材来源,可能形成固有的价值观、价值取向和价值判断,如基于
27、数据驱动的某虚拟人偶在训练后表现出对“残疾人”“同性恋”“孕妇”等群体的歧视;虚拟人的存在可能会导致人类之间的关系变得更加冷漠和疏离,可能导致社交能力下降和人际关系的破裂,中国青年报社社会调查中心联合问卷网对 2001 名 18-35 岁的受访青年进行的一项调查显示,71.3%的受访青年认为太多虚拟社交让人更孤独;此外,虚拟人的行为和决策可能会涉及自然人自身权利享有及责任承担,自然人与虚拟人之间的界限日渐模糊,影响自然人的精神状态、思考方式和行为习惯等问题。可信虚拟人白皮书1.3 全球范围虚拟人的可信实践1.虚拟人可信要求成为国内外政策布局方向以欧盟和美国为代表的发达国家积极布局虚拟人领域政策
28、法规,主要聚焦于生物识别、深度伪造换脸等方面的规定。2023 年 5 月 11 日,欧洲议会通过关于人工智能法的谈判授权草案,同意全面禁止在公共场所使用远程生物识别技术(即人工智能辅助技术,如面部识别,从照片或录像中识别个人)。2019 年 6 月,美国国会提出深度伪造责任法案(Deep Fakes Accountability Act),旨在通过限制深度伪造合成技术,打击虚假信息的传播。深度伪造制作者在其制作的深度伪造换脸记录中,应当包含一个嵌入的数字水印,该水印清楚地说明该记录中改变的音频或视频元素,表明该段视频属于深度伪造合成视频。违反披露义务会被处以高额罚款或者监禁。德国、新加坡、英国
29、、韩国等国家,则选择将虚拟人“深度合成”的相关犯罪纳入刑法范畴,但尚未出台国家层面的专门立法。2.我国多项政策对虚拟人深度合成、内容审核、身份授权等方面做出了初步规定和要求2022 年 11 月,国家互联网信息办公室、工业和信息化部和公安部发布了互联网信息服务深度合成管理规定,对深度合成技术及其应用可信方面做出了初步的规定。管理规定中提出了深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息。深度合成服务提供者提供合成人声、仿声和人脸生成、人脸替换、人脸操控、姿态操控等显著改变个人身份特征的编辑服务时,应当采取技术措施添加不影响用户使用的标识。规定还要求深度合成服务
30、提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意。2023 年 7 月 13 日,国家互联网信息办公室发布生成式人工智能服务管理暂行办法,明确规定提供和使用生成式人工智能服务应尊重知识产权,采取有效措施防止产生民族、信仰、国别等歧视,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益,对使用者的输入信息和使用记录应当依法履行保护义务等。3.虚拟人相关可信规范和标准国外虚拟人相关指南准则集中于保护用户隐私、促进透明度和确保人工智能的道德使用。2021 年 11 月24 日,在联合国教科文组织大会第 41 届会议上,发
31、布人工智能伦理问题建议书,提出了应确保用户能够轻松识别与自己互动的对象是生物还是模仿人类或动物特征的人工智能系统,并且能够有效拒绝此类互动和要求人工介入。欧盟于 2018 年 5 月通过了通用数据保护条例(GDPR),该条例要求对涉及个人数据处理的自动化决策提供可解释性,确保人们能理解和质疑决策依据;并于 2019 年 4 月 8 日公开发布了可信赖人工智能伦理准则(Ethics Guidelines for Trustworthy AI,亦称 欧盟准则),指出人工智能的发展方向应为可信赖 AI,并据此确立了人工智能发展的三项基本要素。2023 年 1 月 26 日,美国国家标准与技可信虚拟人
32、白皮书术研究院发布 NIST AI 100-1AI 风险管理框架 1.0,其目标在于为设计、开发、部署、应用 AI 系统的组织提供参考,以使之能够在控制多样性风险的同时,促进可信赖、负责任 AI 系统的开发与应用。框架提出了可信 AI 系统的特性以及实现这些特性的指南,包括:有效和可靠性、安全(safe)、安全(secure)和弹性、可追责和透明性、可说明和可解释性、隐私增强性、公平性。2022 年 8 月,韩国科学技术信息通信部发布了一份针对元宇宙应用参与者(包括用户和开发者)的核心道德原则指南,标识其元宇宙指南基于三个核心价值,包括真实的身份、安全的体验和可持续的繁荣。该准则确定了支持其核
33、心价值的八项原则:真实性、自主性、互惠性、隐私性、公平性、数据保护、包容性和对未来的责任。另外,国际工程师学会通过了 IEEE P7003 标准,其目标是通过明确道德原则和技术指南,为虚拟人设计和应用提供伦理指导,旨在解决虚拟人技术的透明度、隐私、信任、可替代性等道德和社会问题。国内政府和企业相继发布虚拟人相关指南准则,集中于保护用户隐私、透明度和可理解性、道德使用和公平性、多样性和包容性。2021 年 9 月,国家新一代人工智能治理专业委员会发布了新一代人工智能伦理规范,提出人工智能各类活动应保障个人隐私与数据安全、坚持人类是最终责任主体、避免偏见歧视、加强伦理审查等要求。2023 年 5
34、月,字节跳动公司旗下的抖音平台发布了关于人工智能生成内容的平台规范暨行业倡议,提出虚拟人需在平台进行注册,虚拟人技术使用者需实名认证。平台将提供虚拟人的实名注册备案能力,并对已注册的虚拟人形象进行保护。此外,用户使用已注册的虚拟人形象直播时,必须由真人驱动进行实时互动,不允许完全由人工智能驱动等。4.国内外企业的虚拟人相关可信实践(1)通过技术创新探索虚拟人的可信建设通过区块链、AI、加密传输和存储等技术手段增强虚拟人在数据传输、运营使用过程中的安全性。专栏专栏 6:相关案例:相关案例案例 1:某数字人平台采取了包括身份认证和权限控制、数据安全和加密、隐私保护、防御恶意行为、审计和监控等安全保
35、障措施,并已广泛应用于企业服务、教育培训、娱乐媒体等领域。案例 2:Google 虚拟人助手 Google Assistant、Apple Siri、微软个人智能助理 Cortana 均采用加密传输和存储技术来保护用户的隐私安全和数据安全。案例 3:在虚拟人技术应用过程中,某虚拟人平台运用区块链技术推出多项安全保护措施,同时提供全面的安全漏洞检测和修复服务,以确保用户数据和隐私不被泄露,增强虚拟人使用过程中的安全性。案例 4:某虚拟人平台采用人脸识别、声纹识别等多种安全技术,提升用户信息安全。案例 5:某公司基于 AI 技术推出具有身份认证的虚拟人。通过数字版权认证加强虚拟人的知识产权保护,避
36、免虚拟人知识产权被恶意使用或窃取,规范虚拟人 IP 的使用和管理。可信虚拟人白皮书(2)通过管理创新探索虚拟人的可信建设数据治理:虚拟人的数据质量对其可信度具有重要影响。因此,建立有效的数据治理机制可以提高虚拟人的准确性和可信度。例如,某企业通过制定数据管理政策和标准来确保数据的完整性、一致性和安全性。人员管理:虚拟人的开发和维护需要一支专业的团队进行管理和维护,通过人员管理创新可以提高虚拟人的稳定性和可靠性。某企业设立了虚拟人质量评估团队,对虚拟人的回答和表现进行严格审核和监控,以确保其准确性和可靠性,这种质量控制机制提高了用户对虚拟人服务的信任。质量管理:通过质量管理创新可以提高虚拟人的稳
37、定性和可靠性。例如,某企业采用自动化测试和持续集成技术对虚拟人进行测试和部署,减少错误和故障的发生。透明度与控制权:用户需能清晰了解虚拟人的运作原理和数据使用方式,用户需要有权掌控虚拟人服务,能够自由选择是否使用虚拟人服务、提供哪些信息等。某企业在虚拟人生成过程中注重用户参与和共创,通过开放平台和合作伙伴生态系统,鼓励开发者和用户参与虚拟人的开发和应用,推动虚拟人技术的创新和进步,以满足不断变化的用户需求。某虚拟人管理平台提供了全面的虚拟人搭建、培训和管理工具。企业可以通过该平台自主创建、优化和监控虚拟人,确保其准确性和可靠性。同时,该虚拟人平台通过提供完善的管理工具和技术支持,帮助企业建设可
38、信赖的虚拟人系统。用户隐私保护和信息安全管理:Google 虚拟人助手 Google Assistant,用户可以通过控制面板管理个人数据,并有权访问和删除自己的语音和使用数据;Apple 的虚拟人助手 Siri 的语音识别和处理操作在设备上进行,不会将用户的语音数据发送到云端进行处理;微软的虚拟人助手 Cortana 提供了隐私设置和控制,用户可以管理和删除个人数据,以保护用户个人隐私数据。平台治理规范:虚拟人服务应该遵守一定的道德规范,不得利用虚拟人服务进行不正当的盈利或伤害用户的行为。法律规定:虚拟人服务需要遵守相关法律法规和标准,确保服务的合法性和可信度。如微软制定了虚拟人伦理原则,以
39、规范其虚拟人助手(如 Cortana)的开发和应用。这些原则包括尊重用户隐私、确保信息准确性和透明度、防止歧视等,致力于确保虚拟人技术符合道德要求,并推动其他行业参与者采取类似的措施。某平台于 2022 年 7 月 21 日发布虚拟主播专项治理公告,对低俗色情类及其他违规恶意行为进行整治,采取措施如降低曝光、下架视频、封禁直播间和账号封禁。上述实践案例表明,国内外政府和相关机构均十分重视虚拟人的可信实践,积极探索并制定相应的技术规范与管理准则。这些举措旨在确保虚拟人技术的合法合规、道德可信,保护用户权益,促进虚拟人的健康发展与应用。随着相关技术和应用的发展,未来可预期将会有更多的实践和措施出现
40、,进一步规范和引导虚拟人的伦理和法律要求。可信虚拟人白皮书2.可信虚拟人体系构建虚拟人行业在发展过程中将会面临诸多风险挑战,可信建设既是虚拟人技术发展的要求,也是虚拟人市场发展的保障。因此,在当下社会实践中,我们认为将“可信”作为行业发展的指导原则进行探讨和研究,同时构建并完善可信虚拟人体系至关重要,以确保虚拟人在满足安全合规要求的基础上服务客户和社会。2.1 什么是可信虚拟人探讨“虚拟人”的可信需要从“人本”理念出发。“人本”即一种以人为中心的核心理念。它不仅反映了一种设计理念,强调从用户的需求、情感和体验出发,提供有价值的虚拟人产品或服务,也包括虚拟人发展所要考虑的社会、伦理、法律等方面的
41、影响和责任。因此,我们既要允许和鼓励虚拟人技术的快速发展和广泛应用,同时也需要预先做出体系化规范化的预防措施,其目的是要确保虚拟人技术与应用符合“人本”理念,以使虚拟人在研发、生成、使用过程中对于人类始终保持“有用且无害”的可信关系。那么,什么是可信虚拟人?我们认为,可信虚拟人涉及虚拟人全生命周期与可信要素的结合,在虚拟人技术研发、生成服务、运营使用等各个环节和可信手段进行紧密融合,即虚拟人技术研发可信建设、生成平台可信建设、运营使用可信建设等,使其符合标准、规范、伦理道德等方面的可信要求,包括但不限于:虚拟人形象本身不能造成对他人人格权、所有权等身份、权利上的非法侵犯;虚拟人的行为、思想要符
42、合人类社会的法律法规和公序良俗;当虚拟人发生违规违法行为或事件时,能够明确并追究相关方的法律责任。2.2 虚拟人可信建设的必要性数字孪生、AIGC 技术和元宇宙生态的迅猛发展,正在快速构建起人类数字新世界。虚拟人是虚拟空间的重要身份载体。虚拟人不是仅徒有其表的数字人形象,还有支撑其运行的“大脑和灵魂”,也就是为其赋能的人工智能平台和各类算法。不同于人类的缓慢进化,虚拟人基于代码的进化可谓是日新月异。1982 年世界迎来首位虚拟歌姬林明美日本动画超时空要塞女主角,是首个和现实世界产生虚实交互的手绘虚拟人。2000-2012 年间,随着计算机图形学、光场采集、动作捕捉技术的进步,虚拟人制作门槛逐步
43、降低并开始迈入工业化生产;2012-2021 年间,深度学习在语音和图像的模式识别应用领域取得实质进展,极大提升了虚拟人制作效率和可信虚拟人白皮书呈现效果;2022 年,ChatGPT 的火爆标志着 NLP 技术取得重要突破,驱动虚拟人的交互能力实现智能化飞跃。国内外针对可信虚拟人的研究和实践还处于初级阶段。回顾 AI 技术的简短发展历史,尤其是深度神经网络,其进化过程仅用了 16 年时间,而且进化速度还在持续加速。与这些科技成果产业化实践相比,国内外针对可信虚拟人的研究和实践还处于初级阶段。尽管社会各界对科技伦理、AI 引发的道德危机等许多方面都有所关切,但多数停留在担忧和警示层面,还未形成
44、体系化的、可操作的指导性规范。人类与虚拟人之间如何构建可信关系?需要构建怎样的可信关系?是行业须面对的重大议题。虚拟人可信建设,是对相关利益方的道德伦理、价值观的约束,以及对其所提供产品及其行为合法合规性的要求和管制。在日渐形成的元宇宙数字世界中,虚拟人的技术应用必须遵循“主流价值观主导算法”的原则。当前,虚拟人的智能化还处于初等和中等水平,只能执行“被允许”的人类指令,无法理解复杂微妙的人类情感或意图,无法按自主“意愿”与人进行自然交互和行为。这类虚拟人的可信建设主要集中在准确性和稳健性、安全性、非歧视性、透明度和问责制、可解释性等方面。在未来十年,虚拟人的智能将达到高等水平,虚拟人将从被动
45、响应执行模式发展到主动创造和决策模式,这将要求虚拟人生成系统同时具有识别和预防潜在风险的能力。这类虚拟人的可信建设,将涉及数字资产、数字权利、可解释性、可监控性、可追溯性、遵守法律法规、知识冲突/逻辑违背等方面。在不远的未来,虚拟人的智能有望达到超级水平,有可能进化成为具有独立意识的“数字生命”,具备了自组织、自复制能力,此时,这类虚拟人的可信问题,将关乎反垄断/反战/反暴力、反政治/宗教/性别歧视、确保人类无条件掌控权等方面。2.3 可信虚拟人体系构建宏观而言,可信虚拟人在继承人类文明成果的同时,要遵循“和平、发展、公平、正义、民主、自由”的全人类共同价值观。中观而言,可信虚拟人应遵循国家法
46、律法规,遵守基本逻辑规律和事理规则。微观而言,可信虚拟人所采用的技术应安全可信,虚拟人相关组织及其行为应合法合规,虚拟人系统和平台等应遵守相关标准规范的约束。面对加速发展的市场趋势以及伴生而来的风险挑战,需要以理论结合实践、在技术和应用层面进行创新和探索,构建起一套完整且具有落地指导意义的可信虚拟人框架体系,将可信技术、机制等可信要素与虚拟人全生命周期进行深度融合,为各主体在可信虚拟人发展路径和能力建设上提供明确且具体的规范标准和管理要求,从而促进社会对虚拟人行业的信任和支持。可信虚拟人白皮书1.可信虚拟人体系框架图图 2.1:可信虚拟人总体框架本白皮书基于以上对虚拟人行业可信建设的整体定位,
47、结合第一章所讨论的主要行业风险及相关重要监管要求等,给出可信虚拟人总体框架图。该框架所涉及的可信建设有四大特点:一是该框架贯穿虚拟人行业全生命周期,包括技术研发、生成服务和运营使用三大重要环节,分别面向技术支持方、服务提供方、服务使用方三大企业主体。二是该框架重点关注各个企业主体如何利用可信技术、可信管理等要素手段,围绕不同可信目标进行企业内部可信能力的建设和实践。三是该框架还定义了虚拟人可信建设的分级原则和评估维度。四是除企业主体外,该框架也为虚拟人行业组织、监管机构等重要参与方提出了可信建设依据和建议,为虚拟人行业可信发展提供指引。2.可信虚拟人框架内容综述虚拟人的七大可信目标:身份及权利
48、保障、隐私保护与增强、生成内容安全、可靠性可控性、可理解可解释、无偏见多样化、可问责可追溯。虚拟人行业可信建设首先需要确立明确、可执行的可信目标。当前针对虚拟人领域的可信研究相对空白,鉴于虚拟人是数字时代的重要产物,是包括人工智能、3D 数字建模、扩展现实等诸多数字技术融合应用的结果体现,因此本白皮书参考数字技术在研发和应用过程中所遵循的可信原则,并结合虚拟人自身所特有的风险要素、行业特征等探讨并确立可信目标。当前数字技术治理原则已经逐步收敛为有效和可靠、安全性、弹性、隐私增强、可理解和可解释、可问责、透明及公平等几大方面。尽管由于文化可信虚拟人白皮书背景、业务性质及管理制度等差异,不同组织对
49、于这些共同原则的理解及实施方法各有偏重,但从产业维度看,以上共识的核心理念均是围绕如何构建多方可信的数字技术而提出的。与此同时,正如第一章所述,虚拟人市场发展中所涉及的知识产权保护、人格权保障、内容安全等方面的风险和监管挑战又对可信目标的确立提出了新的内涵要求。本白皮书参考全球共识并结合行业特性,总结提出七大可信目标,分别是:身份及权利保障、隐私保护与增强、生成内容安全、可靠性可控性、可理解可解释、无偏见多样化、可问责可追溯,用以作为各参与方,尤其是企业主体可信虚拟人实践时所参考的目标指引。虚拟人行业的可信建设需要强有力的可信手段,其中可信技术和可信管理是实现可信目标的重要方法和途径。在可信技
50、术层面,围绕着上述七大可信目标,以理论研究和技术创新为核心抓手,将可信元素通过技术应用注入企业或行业的可信实践中,从而降低虚拟人在各生命周期的信任成本。本框架针对不同主体在实践中所涉及的数据、算法、平台、业务等提出可信技术手段,主要包括隐私保护与增强技术、内容安全技术、稳定性技术、可解释增强技术、公平性技术、可问责技术等。在可信管理层面,主要是为实现可信目标而制定的一系列流程制度等非技术性可信手段。包括企业主体为实现可信建设而建立的内部管理流程,行业组织为推动可信建设而形成的行业政策、标准评测等,监管机构为保障可信建设而出台的各类法律法规、管理办法等。在可信能力建设中,按照可信能力建设难度逐级