收藏 分销(赏)

2024人工智能治理专题:CIDEG+研究通讯.pdf

上传人:宇*** 文档编号:4419481 上传时间:2024-09-20 格式:PDF 页数:31 大小:928.98KB
下载 相关 举报
2024人工智能治理专题:CIDEG+研究通讯.pdf_第1页
第1页 / 共31页
2024人工智能治理专题:CIDEG+研究通讯.pdf_第2页
第2页 / 共31页
2024人工智能治理专题:CIDEG+研究通讯.pdf_第3页
第3页 / 共31页
2024人工智能治理专题:CIDEG+研究通讯.pdf_第4页
第4页 / 共31页
2024人工智能治理专题:CIDEG+研究通讯.pdf_第5页
第5页 / 共31页
点击查看更多>>
资源描述

1、1CIDEG 研究通讯研究通讯第第 20 期期(人工智能治理专题)(人工智能治理专题)清华大学产业发展与环境治理研究中心编清华大学产业发展与环境治理研究中心编2024 年年 06 月月【专题研究】【专题研究】.3人工智能算法影响评价体系构建与应用实践.3【相关研究】【相关研究】.6GIHI2023 系列解读 6|人工智能专利爆炸式增长!北京、粤港澳大湾区等中国城市成为全球人工智能技术发展主要力量.6【专家观点】【专家观点】.9薛澜:人工智能发展的治理挑战.9季卫东:人工智能治理国际合作的重要性.12贾开:ChatGPT 是更接近人脑的智能技术吗?.13薛澜教授对话 Ashley Llorens

2、:推动人工智能正向发展,跨领域与国际合作至关重要.14【学术活动】【学术活动】.19CIDEG 产业经济系列研讨:算法影响评价体系构建与生成式人工智能安全治理.19【出版发表】【出版发表】.20信息技术与管理应用 贾开:ChatGPT 作为“浅层革命”的进步与局限兼论通用智能与“人-机关系”20中国行政管理薛澜、贾开、赵静:人工智能敏捷治理实践分类监管思路与政策工具箱构建.21国际论坛贾开、俞晗之、薛澜:人工智能全球治理新阶段的特征、赤字与改革方向.22数字法治季卫东、赵泽睿:人工智能伦理的程序保障.25【学者动态】【学者动态】.28薛澜教授出席 2024 中国发展高层论坛:人工智能面临治理挑

3、战.28薛澜出席 2024 中关村论坛:人工智能安全上路,首先装好“刹车”.292【编者按】人工智能(AI)的应用范围日益广泛,涵盖医疗健康、自动驾驶、金融、教育等多个领域,充分展现了其巨大的潜力和价值。随着 AI 技术的迅猛发展,我们也面临着诸多挑战,诸如伦理道德、数据隐私保护、算法偏见、安全风险以及对劳动市场的潜在影响等。AI 发展的治理问题,已成为当前科技与社会进步的核心议题,创新算法治理理念和机制成为当前亟待解决的重要课题。为此,清华大学产业发展与环境治理研究中心(CIDEG)针对算法治理问题,于2022 年设立了人工智能算法影响评价体系构建与应用实践专项研究。由上海交通大学国际与公共

4、事务学院长聘副教授、CIDEG 兼职研究人员贾开主持。该研究旨在构建适应不同算法治理目标的影响评价体系,明确算法治理风险的类型内涵及其指标测度,为算法治理实践改革提供坚实的理论基础和实践指导。除此之外,CIDEG 与自然科研(Nature Research)团队联合开发的国际科技创新中心指数(GIHI)2023 报告中,也对人工智能领域的相关研究进行了专项评估。特别是关于人工智能专利的爆炸式增长,以及中国城市如北京、粤港澳大湾区在全球人工智能技术发展中的重要地位等分析,为我们提供了丰富的数据和深入的见解。近期,CIDEG 的多位学者在人工智能领域发表了相关研究成果,在信息技术与管理应用、中国行

5、政管理、国际论坛和数字法治等学术期刊上正式发表。作为人工智能治理领域的权威专家,薛澜教授在 2024 中国发展高层论坛与中关村论坛上,深入阐述了人工智能治理的重要性及挑战。在学术活动方面,CIDEG 产业经济系列研讨会围绕算法影响评价体系的构建与生成式人工智能的安全治理等议题展开了深入的讨论和交流。与会专家学者就相关问题分享了各自的观点和研究成果,为推动算法治理理论和实践的发展贡献了智慧和力量。本期 CIDEG 研究通讯特别聚焦人工智能(AI)发展的治理挑战及其在中国和全球的应用和发展趋势,汇集了多位学者的专家观点、研究专题、学术活动及相关出版发表的成果,以期为读者提供深入的了解和参考。3【专

6、题研究】【专题研究】人工智能算法影响评价体系构建与应用实践人工智能算法影响评价体系构建与应用实践课题负责人:课题负责人:贾贾 开开人工智能算法影响评价(algorithm impact assessment,AIA)作为一种治理机制已经被普遍性地纳入各国算法治理的框架体系之下,但其本身的制度定位与制度逻辑却尚未得到充分讨论。较为典型的反思性问题例如:人工智能算法治理的何种关键特征,使得我们需要纳入人工智能算法影响评价(即人工智能算法影响评价的必要性问题)?与往往被视为其前身的环境影响评估、数据隐私影响评估相比,人工智能算法影响评价体现了更多的继承和连续性,还是差异性(即人工智能算法影响评价的特

7、殊性问题)?人工智能算法影响评价治理绩效的发挥,受到何种因素的影响(即人工智能算法影响评价的局限性问题)?对于这些问题的探索性回答,构成了本报告的主要内容。本报告第一部分的论述指出,就制度缘起而言,人工智能算法影响评价的必要性和重要性在于其将治理重心从结果转向了过程,在淡化追溯直接责任因果链条的同时,强调治理信息的记录、共享、监督,以此积累治理经验并为算法设计者、应用者的及时调整提供参考。具体而言,这又可以总结为三点。第一第一,算法不能被视为独立的产品或服务而被引入人类生产生活的各个场景,其功能效用的发挥及其治理影响的释放都根植于所处环境,正是在与环境中其他要素的相互关联、相互影响过程中算法才

8、体现其价值。这一技术应用逻辑带来了两方面的治理后果:一方面,算法在其应用过程中需要简化现实复杂性,以单一变量代替现实中多重因素的综合影响,而这便会导致算法模型与现实世界的不一致;另一方面,基于海量数据训练的算法模型也可能体现出现实复杂性,将原本隐藏在表面现象背后的社会分化结构外化出来,从而暴露出不得不作出回应的治理风险。算法与环境的这两种关系都导致建立在“过错原则”基础上的现有侵权法或责任法框架可能失效,因试图追溯因果链条的基本原则在算法与环境的相互混杂中难以被充分满足。第二第二,算法技术方案难以被解释、难以被穷尽的基本逻辑使得算法治理将始终处于4动态演化过程之中,而不能被静态的绝对原则所束缚

9、或框定。一方面,人工智能算法模型在技术层面的“黑箱性”,以及算法应用过程中与环境要素相互影响的复杂性,都决定了试图追溯从结果倒推责任因果链条的可解释努力面临重重挑战;另一方面,试图实现相同功能的算法技术方案存在多重可能性,以及算法优化标准可能具有多重内涵的模糊性,都使得试图追求“最优算法”的技术努力幻化为“乌托邦”。这两方面因素都要求算法治理呈现出敏捷性与实验性,即任何试图提前界定而不做调适的治理思路都难以真正回应算法治理需求,治理与技术开发、应用伴随而生、伴随而变需要成为新的主导性理念。第三第三,算法应用风险往往以统计意义而非具体个案形式出现的基本规律,使得算法治理不得不陷入集体效用改善与个

10、体权益侵害同时发生的公平性“悖论”之中,而这一治理风险并非传统治理框架的关注重点。以概率计算为基本科学基础的人工智能算法,其效用提升主要体现为统计意义上的指标优化,但算法本身将始终存在“漏洞”的技术特点又决定了个体权益侵害现象必然发生,而前述算法难解释、难穷尽的基本逻辑又使得此种个体权益侵害不能再明确的责任因果链条下得到救济。如何破解这一公平性“悖论”便成为隐藏在算法治理不同案例下的共性要求。正是基于上述三方面的新特征、新要求,算法影响评价制度的引入才不仅是必要的,也是重要的,其价值主要体现在两个方面:对算法治理的过程进行记录以累积治理经验对算法治理的过程进行记录以累积治理经验与知识与知识(由

11、此回应实验性的治理要求由此回应实验性的治理要求),在风险评价的基础上要求算法设计与应用者及在风险评价的基础上要求算法设计与应用者及时修改生产流程以作出敏捷回应时修改生产流程以作出敏捷回应(由此回应动态性的治理要求由此回应动态性的治理要求)。接下来本报告的第二部分将基于对人工智能算法影响评价的制度实践进行梳理,并在此基础上对其制度内涵作出界定,以具体回答“算法影响评价是什么”这一基本问题。报告的第三部分和第四部分各讨论了人工智能算法影响评价的治理逻辑和人工智能算法影响评价的未来改革。作为一种已经受到普遍认可和共识的算法治理机制,算法影响评价制度正陆续在各国逐步展开。2023 年 8 月 15 日

12、,生成式人工智能服务管理暂行办法正式施行,提出了要求对生成式人工智能进行算法影响评价的制度要求。为进一步落实该文件,2024年 2 月,全国信息安全标准委员会发布了全国网络安全标准化技术委员会技术文件生成式人工智能服务安全基本要求(以下简称安全基本要求),从语料安全、模型安全、安全措施等方面提出了安全评估要求,为生成式人工智能服务提供者的安全评估工作、相关主管部门评判生成式人工智能服务安全水平提供了重要参考。更为重要的是,5安全基本要求第一次对我国算法影响评价的对象、范畴等实质性内容做出了明确规定。尽管其是以技术文件的形式发布,不具有强制性,监管部门究竟将如何利用该文件尚存在不确定性,但如果不

13、考虑短期的合规性问题,而是从算法影响评价制度体系的建构与执行角度来讲,安全基本要求往前迈出了实质性的一步,其可能极大加速算法影响评价制度的完善进程。在此背景下,本项研究围绕算法影响评价制度逻辑的梳理与分析,将具有重要意义。一方面,当我们意识到算法影响评价的制度形式可能存在多种选择的前提下,明确其制度目标、厘清其制度逻辑将有助于决策者清楚辨析不同模式的优劣,并在此基础上选择、建构适合本国需要的算法影响评价制度;另一方面,算法作为一种新兴技术现象,以及算法应用作为一种新型“技术-社会”系统而体现出的特殊规律,使得传统的影响评价理论可能并不适用于此,本报告在第三、四章展开的理论探索,将同样有助于未来

14、改革的进一步推进。当然,更具体的算法影响评价制度内涵、要求的分析已经超出了本报告的内容,而这也是未来进一步需要完善之处。当理论与实践形成相互促进的良性循环之后,算法影响评价才可能实现其制度初衷、提升其制度绩效。.请扫码查看完整报告6【相关研究】【相关研究】GIHI2023 系列解读系列解读 6|人工智能专利爆炸式增长人工智能专利爆炸式增长!北京北京、粤港澳大湾区等中国城市粤港澳大湾区等中国城市成为全球人工智能技术发展主要力量成为全球人工智能技术发展主要力量为进一步比较国际科技创新中心城市在人工智能技术领域的技术创新能力,GIHI2023 依托人工智能专利公开数据,从技术创新的数量、质量、技术优

15、势三个维度,分别采取有效发明专利量、高质量专利量、国际专利分类 IPC(International PatentClassification)分布三个指标进行测度。2020 年后人工智能专利呈现爆炸式增长,北京、粤港澳大湾区专利数量上超越东京,成为全球人工智能技术发展的主要力量。一、北京、上海、粤港澳大湾区表现概述1.1 北京北京在人工智能技术有效发明专利存量上排名第 1 名,拥有 26638 件,人工智能专利年均增长率达到 77%。在高质量专利总量上,北京排名第 5 名,其中 PCT 专利量上排名第 3 名,拥有 1608 件,在人工智能技术领域三方专利量排名中位居第 3名。近五年,北京在高

16、质量专利上保持高速增长态势。北京的高质量专利主体较为分散,主要基于其企业和高校的双重聚集优势助力其人工智能产业发展,如百度(380 件)、京东方(228 件)、小米(157 件)、京东(136 件)等高技术企业,华为(121 件)、西门子(71 件)等跨地区跨国企业合作,以及清华大学(168 件)、北京大学(61 件)等国际知名高校合力成为其发展的助推剂。相对而言,北京的高质量专利主体则比较分散,表明其处于市场早期阶段。1.2 粤港澳大湾区粤港澳大湾区在人工智能技术有效发明专利存量上排名第 2 名,拥有 20207 件,人工智能专利年均增长率达到 92.4%。在高质量专利总量上,粤港澳大湾区排

17、名第 2名,拥有 2769 件,在人工智能技术领域三方专利量排名中位居第 5 名。7粤港澳大湾区凭借其强大的产业集聚优势,汇集了华为(2267 件)、平安集团(2145件)、腾讯(985 件)、中兴(369 件)、OPPO(368 件)等高科技企业,使得其人工智能产业位居世界前列。1.3 上海上海在人工智能技术有效发明专利存量上排名第 9 名,拥有 6506 件。在高质量专利总量上,上海排名第 15 名,其中,在 PCT 专利量上排名第 9 名,拥有 475 件。二、其他中国城市表现概述中国城市人工智能专利总量领先全球,人工智能技术有效发明专利存量前 20 城市(都市圈)中,中国城市占 14

18、席。三、专利热点领域本报告选取 PCT 专利和三方专利均进入前 20 的城市(都市圈),分析这些城市的人工智能技术的热点领域分布。在人工智能算法算力方面,粤港澳大湾区和北京则高度重视神经网络与遗传算法、机器学习、自然语言处理的技术研发和布局。粤港澳大湾区在基于数学模式的计算机系统(第 4 名)、数据安全装置(第 2 名)、其他计算机系统(第 5 名)、自然语言处理(第 1 名)、基于知识模式的计算机系统(第 4 名)、机器学习(第 4 名)、数字计算设备(第 3 名)、基于生物学模型的计算机系统(第 2 名)等方面排名前五。北京则在数据运算装置(第 4 名)、自然语言处理(第 2 名)、基于知

19、识模式的计算机系统(第 5 名)、数字计算设备(第 5 名)、基于生物学模型的计算机系统(第4 名)等方面排名前五。在智能控制技术方面,粤港澳大湾区重点布局数据传输、数据交换等方面的技术,其中在程序控制机械手(第 3 名)程序控制系统(第 4 名)、数据交换网络(第 1名)、数字信息传输电路或系统(第 2 名)、程序控制单元(第 2 名)、数据传输装置(第 3 名)等方面排名前五,优势领域明显。北京则仅在程序控制单元(第 5 名)领域排名前五,仍需在智能控制技术上持续发力。在计算机视觉技术方面,粤港澳大湾区和北京等亚洲城市(都市圈)是计算机视觉技术的主要研发地区。其中,粤港澳大湾区在电视系统的

20、零部件(第 2 名)、视频识别(第 1 名)、语音识别(第 3 名)、信息检索(第 1 名)、图像理解(第 2 名)、8图形识别(第 1 名)等方面排名前五。北京在视频识别(第 3 名)、语音识别(第 5名)、信息检索(第 2 名)、图像理解(第 4 名)、图形识别(第 3 名)等方面排名前五。在人工智能技术应用方面,粤港澳大湾区、北京则在行业系统应用方面具有相对优势。具体而言,粤港澳大湾区在用于医疗诊断的信息通信技术(第 4 名)、商业应用系统(第 4 名)、人体测量诊断(第 5 名)、特定行业应用系统(第 5 名)行政应用系统(第 3 名)等方面排名前五。北京在商业应用系统(第 5 名)、

21、特定行业应用系统(第 4 名)、行政应用系统(第 5 名)等方面排名前五。整体而言,国际科技创新中心城市在人工智能技术领域的优势技术具有显著差异。中国城市(都市圈)将在新一轮的人工智能技术浪潮中发挥重作用,是当前阶段热点技术如神经网络与遗传算法、图形识别、机器学习、图像理解等领域的重要推动力量。.请扫码查看完整排名9【专家观点】【专家观点】薛澜:人工智能发展的治理挑战薛澜:人工智能发展的治理挑战薛澜:中国的人工智能有雄厚积累与先发优势,形成了推动人工智能发展的总体规划,在过去发展过程中也形成了自上而下和自下而上相结合的治理框架,人工智能技术也有非常广阔的应用场景。同时,中国人工智能发展未来也面

22、临着一些挑战。从 2022 年 11 月份 ChatGPT 问世之后,人工智能领域技术创新加速,尤其是以 OpenAI 为代表的美国技术前沿公司更是形成了你追我赶的局面。几个星期前 Open AI 推出了非常独特的,跨模态的视频生成工具 Sora,时长可以达到 60 秒,惊艳全球,将对短视频等很多媒体娱乐行业产生巨大冲击。同时,自动驾驶、广告、教育、医疗、安防等不同领域也受到很大影响并有可能成为 Sora 潜在的应用市场。除此之外,在 AI 算力的核心硬件方面也有很多新突破,如 Groq LPU 这一新的大模型推理芯片,其制程虽然还是 14 纳米,但由于有 TSA 架构,使得其特定的处理能力非

23、常快,推理速度比 GPU 快 10 倍,但能耗只是它的 1/10。我国的芯片、GPU等硬件本来就受到制约,现在美国在这方面的新突破把差距进一步拉大。这对中国的创新体系是一个很大的冲击。中国现在的创新模式还是遵循比较传统的线性模式,即从学术研究开始,到工程技术,最后再到产品。这个模式无法形成研究、工程和市场间密不可分的生态,这是现在中国创新体系亟待解决的问题。中国人工智能的最新发展态势基本平稳,中国在人工智能领域发表论文全世界最多,美国是第二,中美合作的论文也很多。在 AI 大模型方面,去年 5 月我们已经发布了 79 个超过 10 亿的大模型,现在已经超过 130 个。如果单从量上讲进步很大,

24、但是实际上我们的大模型还存在不少问题,因为有不少是用套壳和拼装的方式构建的。具体而言,目前很多国外的模型是开源的,那么在开源的基础上进行套壳就可以形成一个套壳的大模型,接着再将一些这样的大模型拼装在一起就变成更大的大模型,这种方式做出来的大模型背后的原创性是有限的。另外,我们的算力也被“卡脖子”,比如英伟达的 GPUA100 和 H100 被美国禁售,很多公司受到影响。同时,中国数据质量比较低也是一个问题。中国的数据量很大,但没有真正产业化,相对标准化的数据10服务商还比较少,因为大数据服务不赚钱,公共数据企业没有意愿去清洗,定制化服务又一般收费比较高。因此,数据市场如何构建也是需要解决的问题

25、。另外就是资本短视。资本短视有各种各样的原因,其中一个原因是对中国资本市场政策不稳定的担心,另外就是商业化面临一些挑战等。所有这些都是中国大模型产业下一步发展需要思考和解决的问题。2018 年习近平总书记在中央政治局第九次集体学习中特别强调要加强人工智能发展潜在风险的研判和防范,确保人工智能安全可靠可控。2019 年和 2023 年又特别强调重视通用人工智能的发展,营造创新型生态,重视风险防范,综合考虑人工智能发展的社会收益和潜在风险两个方面。总书记的指示给我们推动人工智能创新发展和防控风险指明了方向。从综合社会收益讲,生成式人工智能的渗透性非常强,对社会影响是全面的。对制造业来说,AI 有利

26、于推动产业的数智化转型升级,在推进新质生产力和高质量发展方面潜力巨大。中国在这方面已经做了很多探索,例如,三一重工制造工厂应用人工智能技术之后提高 185%,生产周期 30 天缩短到 7 天。同时,AI 在推动智力密集型的服务产业规模化方面也发挥了巨大作用。人工智能的潜在风险体现在多个层面。在个体层面,AI 可能引发算法歧视、知识产权争议、信息错误等问题,这与技术本身相关。应用和开发过程中也有问题,包括数据隐私保护、防范伪造等。目前我们比较关心的是这些直接的影响,但是社会层面还有一些更长远的大问题,如劳动力结构调整、产业结构调整等影响。同时,由于劳动力结构调整,可能对收入分配影响很大,从而加剧

27、数字鸿沟、社会不公平等问题,这些都是需要慎重考虑的。另外大模型训练的能源消耗非常厉害,现在看来可能所增加的温室气体排放也是不能忽视的。有人估算 ChatGPT 在整个训练周期的碳排放量相当于开车到月亮再返回地球的总量。在国家安全层面的问题同样让人担心,包括对社会稳定的影响,在军事上的应用等。去年 7 月基辛格到访中国,他非常关心的一个问题就是人工智能对国际安全的潜在影响,他提到二战以后全世界之所以能保持总体和平环境,很重要的一点就是因为国际社会形成了有效的核武器管控机制,这个机制基本保障了核武器没有大规模扩散。他认为未来人类社会如果还想继续保持安全,人工智能治理就应成为核心,而中美两国是全球人

28、工智能治理最关键的国家。他非常积11极地推动中美两国在这方面开展对话,后来我们也看到中美两国元首在旧金山的峰会上一致同意开展中美两国在人工智能领域的对话。在更高层面的风险上,我们都非常关心的就是通用人工智能会不会在哪一天不受人控制?会不会影响整个人类社会的生存?也就是硅基文明和碳基文明今后会有什么冲突?这个层面的风险是人类社会生存的风险。在这类问题上,Chat-GPT 的出现影响了整个社会,尤其在技术领域,很多专家也开始高度关注这个问题。清华大学2020 年成立了一个人工智能国际治理研究院,当时一些技术领域的专家对提出人工智能治理还有不同看法,认为人工智能技术刚刚发展起来,谈治理太早了。国际上

29、同样也有这样的声音。这里有两方面原因,首先,是对“治理”这个概念有一定误解,大家只看到了治理概念中的规制一面。但治理包括两个方面,一方面是怎么更好地构建制度体系来推动良性发展,另一方面是规制的一面,如何减少技术发展可能给社会带来的风险及其损害。因此,治理对所有新技术的发展都是必要的。除此之外,当时我们对所谓通用人工智能的潜在风险还没有那么担心,但 Chat-GPT 出来后变化就很大了。最近,我参与了一些著名人工智能技术专家和治理专家的共同努力,撰写一篇提交给科学(Science)的论文。这篇论文就指出,我们已经到了刻不容缓需要推动人工智能全球治理的阶段。这些技术专家之所以认为情况变了,就是因为

30、 Chat-GPT的出现让他们认为通用人工智能可能出现的时间要大大提前。除了刚刚谈到的几类综合性风险,我们更多要考虑具体应用场景。AI 在电商、医疗、教育、科研等领域有很多应用,可能产生巨大的社会收益,但也会有很多风险,我们需要探讨怎么有效规避。技术本身产生的风险是典型案例。这里有个例子,当我们问 ChatGPT 北京清华大学校歌歌词是什么时,它会编造一个错误的答案,把北京大学和清华大学的一些信息混用。除此之外,还有数据滥用、隐私泄露、深度伪造等很多其他风险。再如在电商这一特定情境下,有些电商会做虚假宣传、大数据杀熟等。除此之外,未来人工智能领域的发展还需要综合考虑其社会效应,包括在塑造人类文

31、明新形态的作用等。.总体来说,中国的人工智能有雄厚积累与先发优势,形成了推动人工智能发展的总体规划,在过去发展过程中也形成了自上而下和自下而上相结合的治理框架,人工12智能技术也有非常广阔的应用场景。同时,中国人工智能发展未来也面临着一些挑战。首先是怎么样形成不同企业公平竞争的市场环境,包括民营企业、国有企业和外资企业、包括大中小企业等等,这种多元公平竞争的市场环境对人工智能领域发展至关重要。其次是产业生态问题,如何建立企业、资金、人才等多方面主体和多方面资源能够有效流通协调一致的产业生态。第三是治理问题,怎么形成可预期、包容审慎、敏捷有效的治理框架,为形成鼓励人工智能发展的市场环境和产业生态

32、奠定制度基础。最后,就是怎么聚集全球顶尖人工智能人才,Open-AI 是全世界各国不同优秀人才聚集发展起来,人才多元化程度很高,中国在这方面需要加大开放力度。我们相信在各方面的共同努力下,中国人工智能领域能够抓住发展机遇,克服重重困难,迎接多方面的挑战,有效防控各种风险,让人工智能的发展为中国现代化建设服务,为世界和平发展服务。详细内容请扫描查看全文季卫东:人工智能治理国际合作的重要性季卫东:人工智能治理国际合作的重要性2024 年 4 月 23 日至 25 日,上海交通大学文科资深教授、CIDEG 学术委员季卫东在澳门参加了为今年 9 月联合国未来峰会而召开的预备性对话和 2024 年联合国

33、大学澳门人工智能国际研讨会,作为创始成员出席了 UNU AI Network 启动仪式,并策划和主持了关于亚太地区生成式人工智能治理和法律的分论坛。季卫东教授指出:怎样面对发展与安全之间的巨大张力,这是人工智能立法的核心问题;根据对这个问题的不同理解和解答,迄今为止各主要国家的制度设计可以大致分为四种模式,即欧盟的“硬法模式”、美国和日本的“软法模式”、中国的“软硬兼施法模式”以及新加坡的“技术程序法模式”。他认为,如果大模型的技术研发不仅是AI 治理的对象,也可以反过来为 AI 治理赋能,那么科技企业就不会对人工智能立法感到忧心忡忡。实际上,如果大模型的安全研究通过技术-程序的进路能够形成测

34、试、13评估以及监控的工具箱,其中包括推广数字水印技术、开发 AI 验证小模型、形成 AIGC打假系统、建立 AI 伦理管理指标体系和认证平台、编制 AI 安全保障网,那么监管与发展就不再是一种零和游戏,AI 治理还能为 AI 研发开拓出新的投资机遇或者市场空间,通过错位竞争构成企业的科技蓝海。换言之,只有在语言大模型和多模态大模型的性能提升与安全度提升形成某种正比关系之际,只有在监管转变为程序本位和技术本位之际,各国以及全球才有可能真正进入所谓“人工智能治理的立法时刻”。季卫东教授会议期间还就中美两国关于人工智能的政府间对话问题接受了潮新闻记者的采访,进一步阐述了自己对人工智能治理国际合作的

35、主张。.详细内容请扫描查看全文贾开:贾开:ChatGPT 是更接近人脑的智能技术吗?是更接近人脑的智能技术吗?ChatGPT 的迅速崛起在当前掀起一股舆论热潮。与技术进步的传统争论多数处于技术乐观主义与技术悲观主义之争的范畴不同,围绕 ChatGPT 的争议似乎更加分化:富有科幻想象色彩的自媒体在渲染这项新技术可能产生的影响,而来自技术社区的声音则质疑这项技术的创新性和颠覆性。然而,无论如何,ChatGPT 已经推动全社会正在经历自 2016 年 AlphaGo 之后的又一次人工智能“洗礼”:AI 技术取代人从事某些属于人脑创造性的工作,已发生在眼前了。在技术以超出人们预期的方式快速发展的背景

36、下,究竟应如何认识及定位智能技术的价值及其局限,突显出极为重要的意义。本期推送的文章通过回顾科学革命、智能革命两个领域的历史性争论,展示了 ChatGPT争论背后的技术理念和科技哲学。电子科技大学公共管理学院副教授,清华大学产业发展与环境治理研究中心研究员贾开发表了题为ChatGPT 是更接近人脑的智能技术吗?的文章,在本文看来,体现“浅层解释”理念的 ChatGPT 只应被视为智能技术探索路径上的一种选择,其不14应作为不能被改变的技术前提。以“多重技术路线探索”的眼光来认识 ChatGPT 并确立对其恰当的定位,可能是更值得追求的分析态度。.详细内容请扫描查看全文薛澜教授对话薛澜教授对话

37、Ashley Llorens:推动人工智能正向发展,跨领域与国际合作至关重:推动人工智能正向发展,跨领域与国际合作至关重要要近日,清华大学文科资深教授、苏世民书院院长、CIDEG 学术委员会联席主席薛澜受邀出席由微软亚洲研究院与清华大学苏世民书院联合举办的“促进人工智能的合作与学术交流”的座谈会。会上,薛澜教授和微软研究院副总裁、微软杰出首席科学家、微软研究院全球研究合作负责人 Ashley Llorens 博士就人工智能未来发展所需的合作展开了深入讨论,并分享了他们各自对跨领域与国际合作、人才培养等问题的见解。谢幸谢幸:人工智能技术和相关工具的日益普及,引发了人们对其可能带来的机遇和潜在风险

38、的关注。两位对人工智能发展的治理有什么看法?薛澜薛澜:作为一名政策分析者而非计算机科学家,我对人工智能技术的细节了解不多,但我一直在密切关注新技术可能给社会带来的影响。我曾参与中国在 2017 年发布的新一代人工智能发展规划起草过程中的讨论,并提到了发展人工智能需要关注潜在的风险。大家可以看到,这份规划中明确地强调了要关注人工智能发展可能引发的风险和相关的治理需求。后来,我被任命为新一代人工智能治理专业委员会的主任,并一直从事人工智能治理相关的工作。许多人都担忧人工智能可能带来的潜在风险,但也有大量技术专家担心,政府的过度监管可能抑制技术的发展。如何在两者之间取得平衡,是我们当前面临的一大挑战

39、。对此,我们一直倡导将敏捷治理作为人工智能的治理方法。15由于人工智能的发展给人类社会带来了诸多益处,所以推动其创新发展是毋庸置疑的。但同时,未知的风险也是巨大的,我们不能放任其野蛮发展,关键在于我们的治理如何适应并跟上这一新技术的发展脚步。因此,我们需要审慎地观察人工智能的发展,在必要时采取措施引导规制,同时避免过度干预阻碍其发展。Ashley Llorens:我在人工智能领域有 20 年的工作经验,亲眼见证了机器学习技术和机器人应用将我们带入了一个激动人心的时代。我们正在经历技术史上的一个历史性时刻,一个关键的转折点。回顾几十年来计算技术的发展,人们开发了各种应用程序来完成特定任务,现在我

40、们已经创造了非常复杂的方式来显式地编程,让机器执行任务,例如使用 Windows系统与各种应用程序和软件进行交互,这些程序将点击的动作映射为用户的实际意图,比如打开 Word 文档等。随着机器学习技术的崛起,系统可以通过数据和经验实现自我编程、自动创建映射、自主完成任务。实际上,经过学习训练的程序就是一个高度参数化的数学函数,但在大语言模型和多模态模型出现之前,一个训练过的程序只能完成一项任务,比如一个计算机视觉算法,它接收像素输入并输出分析结果,描述图像中包含的对象或预测视频序列中要执行的动作。但现在,自监督机器学习的过程可以创建执行多个任务的程序,而且还可以使用自然语言对它进行再编程。Ch

41、atGPT 带来的改变是革命性的。我们可以使用开发人员提供的基础模型,以前所未有地方式使用这些工具,或者用开发者未曾想到的方式进行创新。回到人工智能的机遇和风险这一问题上。用户可以更具创新性地来使用这些技术工具,但这也带来了风险,比如,用户想用工具来做一些不好的事,或者因为对模型能力的片面理解导致模型产生了意外的结果,尤其是在医疗等关键领域,有些意外结果将是危及生命的。因此,技术与人类需要共同进化,在利用技术优势的同时,也要基于负责任的人工智能原则来进行创新。微软推出的大语言模型产品都经过了严格的测试,就是这种共同进化的例证。谢幸谢幸:我想大多数人都会认同这是一个技术变革的时代,也意识到了机遇

42、与挑战的并存。人工智能的快速发展,特别是大语言模型的兴起,既彰显了技术的进步,也16引发了很多担忧。两位对人工智能的未来有什么看法?是乐观更多一些,还是会有些悲观?薛澜薛澜:如果没有人关心人工智能可能带来的风险,那才是真正的令人悲观。相反,正因为现在有很多人关注这个问题,才让我对人工智能的未来感到乐观。以核技术为例,在其发展初期,科学家们也为核弹的发展展开过争论,当人们看到核弹的破坏力之后,便开始倡导停止这项技术,并形成了一整套控制核武器扩散的机制。由此可见,人类社会是有能力控制技术的应用,限制技术向负面方向发展的。同样,在生物技术领域,基因编辑等前沿技术能够完成很多超乎想象的事情,但也伴随着

43、伦理道德方面的担忧。而现在医学界和生命科学界已经尝试提出一套伦理方针来指导研究。人工智能科学家和政府机构也在努力探索治理机制,来为技术提供防护栏。因此,我对人工智能的未来还是持乐观态度的。Ashley Llorens:我同意薛教授的观点。我从事人工智能和机器学习相关工作已经有很长时间了,如果 10 年前我说自己是做机器学习的,很多人会感到困惑。但现在,人们对人工智能的发展有了更多的了解,而且计算机领域之外的人每天也在利用这项技术解决实际问题。我们也看到在学术界,很多人在推动人工智能技术的发展。人类的一个优势是擅长使用工具,从某种角度来说,人工智能作为一种工具,是我们与物理世界交互的延伸,也是我

44、们认知能力的放大器。同时,我们也需要保持警惕。乐观、怀疑、悲观,这些不同的态度都是正常的。当我们从整个社会的角度来考虑资源投入时,要把这些态度都纳入考量,关键在于投入的分配比例。尽管一颗小行星撞击地球的可能性非常小,但美国国家航空航天局(NASA)还是投入了一些资金,通过小行星重定向项目来降低相关的风险。我想说的是,我们需要有一个多元的投入组合来反映我们对先进技术的不同态度,并且要确保我们的决策不会阻碍技术的正向发展。谢幸谢幸:清华大学和微软研究院都是高度国际化的组织,并且有丰富的国际合作经验,你们如何看待国际合作在应对人工智能风险和挑战方面的作用?以及如何让合作更为有效?Ashley Llo

45、rens:国际合作在人工智能领域至关重要。我们需要找到最佳的合作方式,以实现更大的成功和积极成果,同时避免负面影响。微软一直致力于推动人工17智能技术的正向应用,例如我们发起的“气候研究倡议(Microsoft Climate ResearchInitiative,MCRI)”,就是旨在利用人工智能技术应对气候变化。在内部,我们与可持续发展研究领域的同事合作,确定了人工智能和计算技术可以帮助应对气候变化挑战的三个研究方向:碳核算、碳减排和气候韧性。在外部,我们与高校合作共同探索如何结合新的遥感技术和人工智能进行碳核算,其中就有来自清华大学的研究员。这是我们通过合作推动技术正向应用的一个例子。薛

46、澜薛澜:从全球视角看,近年来科学家之间的国际合作日益增加。在研究层面,合作尤为重要,我们的研究发现,在科技文献发表方面美国和中国是合作最多的国家。在机构合作方面,就像 Ashley 提到的,清华大学的科学家加入到微软资助的研究项目中,还有很多清华大学的毕业生在微软工作,微软也和清华大学在很多项目上开展了合作。在国家层面,我们要避免极端竞争的情况出现,给科技合作提供基本保障。谢幸谢幸:除了国际合作,跨学科合作也是人工智能发展的重要维度。越来越多的研究人员意识到,要推动人工智能的进步,必须与社会科学等其他学科相结合,以便更深入地理解和应对人工智能对社会的影响。请两位谈谈你们对跨学科合作在人工智能发

47、展中的作用和意义的看法。薛澜薛澜:我们今天的座谈会就是一次跨学科对话与合作的例证。在人工智能治理方面,我们需要技术专家、哲学家、政策制定者和管理人员的共同参与,跨学科合作对人工智能的发展非常关键。人工智能对公共管理和社会科学研究的影响正受到越来越多的关注。很多人认为,人工智能带来了巨大的范式转变,新技术改变了社会科学研究的格局。因此,我们需要加强不同学科间的合作,清华大学也成立了社会科学和计算机科学的跨学科研究机构。Ashley Llorens:跨学科合作是解决人工智能领域中核心问题的关键。作为人工智能的科研人员,我认为探索通用智能的本质会带来很多有趣的技术挑战,其中最有趣的科学问题是关于人类

48、的问题。还有一些更广泛的社会问题,比如社会是否应该与这些技术共同进化。这些问题非常有意义,也是非常重要的问题。18微软研究院很早就意识到了这一点,我们汇集了很多社会科学家,包括计算社会科学家、经济学家、人类学家等各领域的专家。我们还需要更多来自不同领域和不同背景知识的人才,来共同构建一个跨学科合作的社区。谢幸谢幸:鉴于跨学科合作的重要性,我们需要培养更多的跨学科人才。然而,目前这方面的人才还比较匮乏。我们应该如何为未来的人工智能培养跨学科人才,以应对未来的变化和挑战?Ashley Llorens:我们必须处理好人工智能对教育的影响,并充分利用其为教育带来的机遇。从小培养孩子的算法思维和系统性思

49、维,比以往任何时候都更重要,技术可以帮助我们实现这一目标。现在,机会就在眼前,我们需要加大这方面的投入和支持。同时,我们也需要在学校中规范地使用人工智能技术,比如在论文撰写中合理运用 AI。我们不应过度依赖工具,而忽视必要技能的培养,当然我们也不能忽视对新兴技术的使用。薛澜薛澜:未来,人工智能有望帮助消除不同领域之间的障碍。人们常常有一种固有印象,认为学习科学和数学知识之后,再学习人文和社会科学是件很容易的事,但反过来却比较困难。现在人工智能也许可以改变这种领域偏见。人们可以平等地使用各种工具来学习科学、数学、工程和社会科学等,或许这是未来使用人工智能工具就能实现的。Ashley Lloren

50、s:我完全同意。我相信,未来人们可以更容易地享受到技术进步带来的好处,使用自然语言编程系统将成为一项基本技能。尽管这还存在挑战,但微软研究院正朝着这个目标努力,到那时不仅计算机科学家可以用编程语言编写代码,非计算机科学家也能用自然语言为代码库做出贡献。未来 5 到 10 年,我们对技术人员的定义可能就会完全不同。详细内容请扫描查看全文19【学术活动】【学术活动】CIDEG 产业经济系列研讨:算法影响评价体系构建与生成式人工智能安全治理产业经济系列研讨:算法影响评价体系构建与生成式人工智能安全治理3 月 8 日下午,清华大学产业发展与环境治理研究中心举办“算法影响评价体系构建与生成式人工智能安全

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 研究报告 > 其他

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服