ImageVerifierCode 换一换
格式:PDF , 页数:11 ,大小:1MB ,
资源ID:1300768      下载积分:25 金币
快捷注册下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/1300768.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

开通VIP折扣优惠下载文档

            查看会员权益                  [ 下载后找不到文档?]

填表反馈(24小时):  下载求助     关注领币    退款申请

开具发票请登录PC端进行申请

   平台协调中心        【在线客服】        免费申请共赢上传

权利声明

1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:0574-28810668;投诉电话:18658249818。

注意事项

本文(从ChatGPT看AI未来趋势和挑战.pdf)为本站上传会员【Stan****Shan】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4009-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

从ChatGPT看AI未来趋势和挑战.pdf

1、 从 ChatGPT 看 AI 未来趋势和挑战桑基韬1,2于剑1,21(北京交通大学计算机学院北京100044)2(交通数据分析与挖掘北京市重点实验室(北京交通大学)北京100044)()ChatGPT:A Glimpse into AIs FutureSang Jitao1,2 and Yu Jian1,21 (School of Computer and Information Technology,Beijing Jiaotong University,Beijing 100044)2 (Beijing Key Laboratory of Traffic Data Analysis an

2、d Mining(Beijing Jiaotong University),Beijing 100044)AbstractChatGPT has been a significant breakthrough and drawn widespread attention.ChatGPTs role in AIdevelopment and its future impact is examined in this paper.We first introduce ChatGPTs exceptional dialoguegeneration capabilities,enabling it t

3、o handle nearly all natural language processing tasks and be applied as a datagenerator,knowledge mining tool,model dispatcher,and natural interaction interface.We then analyze ChatGPTslimitations in factual errors,toxic content generation,safety,fairness,interpretability,and data privacy,and discus

4、sthe importance of clarifying its capability boundaries.After that,we analyze the concept of truth and explain whyChatGPT cannot distinguish truth from falsehood from the non-equivalence of three references.In discussing AIsfuture,we analyze mid-to-short term technological trends and the long-term d

5、evelopment path from the relationshipbetween perception,cognition,emotion,and behavioral intelligence.Lastly,we explore ChatGPTs potential impacton cognitive cost,education,Turing Test understanding,academias opportunities and challenges,informationcocoons,energy and environmental issues,and product

6、ivity enhancement.Key wordsChatGPT;AI development;dialogue generation;technical challenge;trustworthy AI;social impact摘要在人工智能领域,ChatGPT 作为一种重要的技术突破,引起了广泛的关注.本文将探讨 ChatGPT 在人工智能发展中的地位及其对未来 AI 的影响.首先,介绍了 ChatGPT 所展现出的优秀对话生成能力,使其几乎可以胜任所有自然语言处理任务,并将作为数据生成器、知识挖掘工具、模型调度员、自然交互界面在各种场景得到应用.接着,分析了其在事实错误、毒害内容生

7、成、安全性、公平性、可解释性、数据隐私等方面的局限,并讨论了作为辅助人类工具的 ChatGPT 明确能力边界和提高能力范围的重要性.然后,从概念经典表示对“真”定义进行了分析,并从概念三指不等价的角度阐释性了 ChatGPT 无法区分真假的原因.在论述 AI 未来时,从拓展应用、克服局限、探索理论分析了中短期技术趋势,并从感知、认知、情感、行为智能四个层面的关系讨论了长期发展路径.最后,探讨了 ChatGPT 作为认知智能的代表,对包括认知成本、教育要求、图灵测试认识、学术界的机遇与挑战、信息茧房、能源环境问题和生产力提升等方面可能产生的影响.关键词ChatGPT;人工智能发展;对话生成;技术

8、挑战;可信 AI;社会影响 收稿日期:2023-04-10;修回日期:2023-04-12基金项目:北京市杰出青年基金项目(JQ20023);国家自然科学基金项目(61832002)This work was supported by the Beijing Natural Science Foundation for Distinguished Young Scholars(JQ20023),and the National Natural ScienceFoundation of China(61832002).通信作者:于剑()计 算 机 研 究 与 发 展DOI:10.7544/iss

9、n1000-1239.202330304Journal of Computer Research and Development60(6):11911201,2023中图法分类号TP391 2022 年 11 月 30 日,OpenAI 公司发布了一款名为 ChatGPT 的软件.该软件在发布后的 5 天内,用户数量就超过了 100 万,2 个月内活跃用户数更是突破了 1 亿,成为了迄今为止增长速度最快的应用软件.该软件几乎可以完成自然语言处理的所有任务,因此在营销、客服、教育、娱乐、咨询、翻译等行业有着广阔的应用前景.这一成功也激励了 OpenAI 首席执行官 Sam Altman,他于 2

10、023 年 2 月 24 日发表了一篇名为“Planning for AGI and Beyond”的文章,认为AGI(artificial general intelligence,通用人工智能)是 AIsystems that are generally smarter than humans,需要为AGI 的到来做准备.AGI 会是 AI 的未来吗?本文将对此进行讨论.1ChatGPT 的“能”:生成比尔盖茨将 ChatGPT 誉为自 1980 年现代图形桌面环境 GUI 问世以来最具革命性的科技进步.如果说上一次让 AI 火出圈的 AlphaGo 所展现出的是在特定领域的“专”,这一次

11、 ChatGPT 展现出的则是 AI 在广泛应用场景的“通”:这个“通”以正常人都会、都懂、都能体验的对话形式呈现,让 AI特别是自然语言处理技术进入主流用户群,孕育出了这一现象级产品.具体而言,ChatGPT 在对话过程中展现出了自然对话、多轮交互、上下文学习、思维链推理、实时反馈在线纠错、能适应未训练任务以及 GPT-4 中新出现的理解弦外之音的能力.ChatGPT 背后的思想其实很简单:将所有语言任务归为对话任务,并将对话任务归为文字接龙的生成 问 题.自 然 语 言 处 理 领 域 的 学 者 普 遍 认 为,ChatGPT 展现出的优秀对话生成能力对传统研究方法产生了巨大挑战.1)从

12、目标上看,自然语言处理旨在让计算机能够以文字或语音的方式与人类进行有效交流;而对话是人类日常生活中最基本的交流方式,如果实现了人机自然对话,在一定程度上便达到了自然语言处理的核心目标.2)从任务类型上看,自然语言处理可分为自然语言理解和自然语言生成两大类.在谷歌的 T5 模型1推出之后,两类任务统一为单项语言生成的文字接龙形式.自 GPT-1 起,OpenAI就一直坚持采用基于解码器结构的自回归语言模型,这种模型在处理语言生成问题方面具有天然的优势.所以 ChatGPT 可以处理以前不同赛道的语言处理任务,比如翻译、问答、摘要、扩写、写作、润色、代码生成、语句分析、段落理解等.当然,ChatG

13、PT 能够实现如今顺畅自然的人机对话,不仅源于其对 GPT 语言生成技术路线的持续发展,还依赖于算法、算力和数据等多方面的支持.由于 ChatGPT 并未开源,也没有发布论文透露具体细节,我们只能基于 OpenAI 已公开的 GPT 系列技术发展路线来推测这些能力背后的潜在原因.图 1 展示了部分 ChatGPT 已展现出的能力及其背后主要技术原因的对应关系.值得关注的是,ChatGPT 许多能力背后的原因仍在探索过程中.关于上下文学习的能力,有学者认为模型从提示词(prompt)提供的示例中确定了待解决任务的自然语言指令(instruct),从而在无需微调模型的情况下提升了问题回答的质量2.

14、关于任务涌现和多任务迁移能力,一方面,有学者认为指令学习、大规模预训练和数据集多样性共同促进了模型在新任务的泛化能力3.例如,通过在大量不同类型和指令任务上进行微调,模型学习到了一定程度的通用能力,从而能够泛化到未见过的指令和场景.另一方面,不同任务的划分具有一定的主观性,其本质上都可以建模为统一的自然语言生成任务.大型预训练语言模型通过学习大量训练数据,掌握了丰富的语言知识和多种任务之间的共性,进而利用这些共性来提高不同任务的性能.然而,一些问题仍然没有明确答案,例如:何种模型规模和训练数据量阈值可以产生任务涌现能力?涌现能力与模型规模和训练数据量之间的量化关系如何?同时,其他 能力自然对话

15、多轮交互上下文学习思维链推理在线纠错任务涌现弦外之音算法算力数据?主要原因可能原因?原因未知指令学习人类反馈强化大模型高质量对话代码训练技术原因Fig.1Illustration of capabilities and the correspondingtechnical reasons图 1能力与对应技术原因示意1192计算机研究与发展2023,60(6)https:/ 首席科学家 llya Sutskeve 最近在与英伟达首席执行官黄仁勋的访谈中对 ChatGPT 能力学习进行了解释:“ChatGPT 通过学习文本中的统计相关性,获得了这个世界的一个压缩、抽象、可用的映射表达”.这让我们不

16、禁思考:ChatGPT 是否学到了人类文字符号世界的暗知识(tacit knowledge)4.MichaelPolanyi 在他的认识论著作中曾提到:“We can knowmore than we can say(我们所知者,远多于所能说者)”.可以确定的是:机器学习模型通过统计海量符号语料中的规律,能够学习到词汇、语法、乃至一定程度的上下文和常识知识.问题是:随着语料规模的不断增加和统计规律的持续积累,模型所建立的世界表达分辨率越来越高、维度越来越丰富时,是否真的有可能学习到人类情感、道德观念等支撑整个世界运行的更复杂的暗知识?在学术界积极探索 ChatGPT 能力背后的技术原因的同时,

17、工业界已在欢迎这项新技术,并将其优秀的对话生成能力融入各种应用场景.根据 ChatGPT对话的对象和本身的定位,我们将这些应用分成 4个层次,如表 1 所示:Table 1Main Applications Categories of ChatGPT表 1 ChatGPT 主要应用类型对话对象定位实现思路应用场景数据生成器根据需求直接生成数据对话、文案、代码生成数据知识挖掘工具对原始数据再加工或分析挖掘翻译、润色、摘要、文档管理模型模型调度员调用其他机器学习模型协同模型拓展、智能中台应用人机交互界面调用各类应用程序解决实际问题插件、智能操作系统接口 1)数据生成器.根据需求直接生成数据.此类应

18、用仅输入用户需求,利用 ChatGPT 的生成能力返回特定类型的数据.由于思路简洁且实现容易,数据生成类应用在 ChatGPT 发布之初就大量出现.主要应用场景包括对话生成(客服、虚拟数字人)、文案生成(法律文书、营销策划广告)和代码生成等.典型的成功案例包括写作助手 Notion AI、营销文案生成工具 Jasper.ai.2)知识挖掘工具.对数据进行再加工或分析挖掘.此类应用同时输入用户需求和待处理的原始数据,利用 ChatGPT 强大的自然语言处理能力返回经过加工的数据或挖掘出的新信息.知识挖掘类应用可以分为离线和在线两种形式.离线应用通过调用类ChatGPT API 分析和挖掘私有数据

19、等专业领域语料构建知识库,为进一步应用提供知识支持.在线应用的主要场景包括翻译、润色、摘要生成、文档管理等.一些典型案例包括搜索引擎摘要插件 WebChatGPT、文档分析工具 ChatPDF 以及 OpenAI 官方随 GPT-4 发布的摩根士丹利策略分析师.3)模型调度员.调用其他机器学习模型共同解决用户需求.此类应用同时输入用户需求、待处理数据以及多个可调用的机器学习模型,通过 ChatGPT作为人类与其他模型间的连接,设计解决方案、调用并管理其他机器学习模型,共同完成用户需求并输出结果.这方面的典型案例是微软近期发布的系列多模 态 解 决 方案 Visual ChatGPTPT5、MM

20、ReAct6和HuggingGPT7,其通过调度其他视觉基础模型来协同完成视觉和语音任务.此外,AI 赋能一直以来的一个痛点问题是:智能中台需要整合不同模型和技术,并根据业务需求扩展新的模型.ChatGPT 有望实现智能中台的升级,如提供友好的开发/业务人员界面、实现模块化模型管理、简化技术集成和部署,从而提高 AI 赋能效率.随着 ChatGPT 应用探索的深入,相信模型调度员类型的应用将越来越受到关注.4)人机交互界面.调用更广泛的应用程序帮助人类解决实际问题.第一种形式是将 ChatGPT 嵌入到特定应用中,从而极大地提升自然交互体验,如微软的 365 Copilot 和 Copilo

21、t X 分 别 将 ChatGPT 融 入Office 和 Github.第二种形式是在 ChatGPT 搭建的自然语言交互框架上开发各类信息服务应用,去年 10月推出的开源库 LangChain 和 OpenAI 最近发布的插件集 Plugins 都是大型语言模型应用开发框架的典型尝试.正如 Windows 和 Android 分别是桌面和移动时代的操作系统,ChatGPT 有望成为智能时代的操作系桑基韬等:从 ChatGPT 看 AI 未来趋势和挑战1193 https:/www.notion.ai https:/www.jasper.ai统接口.进一步畅想,如果把语言分为人类之间沟通的自

22、然语言和人与计算机之间沟通的计算机语言,ChatGPT 在一定程度上统一了二者:用自然语言实现了人和计算机之间的沟通,不得不说“自然语言编程(natural language programming)”这一新词非常贴切.从这个角度看,我们甚至可以大胆预测:人机交互界面将从磁带、键盘字符、鼠标图形全面进化到自然语言时代.以上围绕对话生成讨论了 ChatGPT 的具体能力、背后的技术原因以及在不同定位下的应用形式.尽管“对话生成”提供了无限的想象,但 OpenAI 的野心显然并不止于此.从名称和发布时间点来看,ChatGPT似乎只是一种过渡性技术的产品形式.在以对话这种产品形式向主流用户群展示了强

23、大的技术实力之后,OpenAI 新发布的 GPT-4 并未继续在对话生成功能上炫技,而是悄然接入了各类官方应用.从生物学角度,语言和智能的演化过程相互促进.人类智能在很大程度上依赖于高度复杂的语言系统.语言作为思维的载体和智慧的外在表现,其运用能力很大程度上反映了认知能力和智能水平.语言习得是认知发展的重要组成部分,儿童在成长过程中通过习得语言来理解世界,并逐渐掌握其他认知技能.ChatGPT 等技术在语言生成能力的持续提升能将人工智能带到什么高度,让人非常期待.2ChatGPT 的“不能”:负责能力越大,责任越大.ChatGPT 展现出的强大能力让主流用户群欣喜、学术界惊讶、工业界狂热.这些

24、能力让我们在使用它时感受到了与以往技术不同的体验.回顾人类历史上的几次技术革命,从早期的石器、金属器具、机械设备、电气设备到近几十年的计算机、互联网和智能手机,每一个阶段所发明的工具都对人类生活产生了深远影响.在使用这些工具时,我们可以清楚地意识到它们作为工具的定位,即辅助人类来完成任务.然而,在使用 ChatGPT 的过程中,我们经常会产生一种与另一个人对话的错觉,尤其是当类似 Plugins 这类功能使其能够像人类一样利用其他工具进行自我增强的时候.埃隆马斯克在使用 ChatGPT 后的感受是“好到吓人”.这种独特的体验无疑将加速技术融入人类社会的进程.正如OpenAI 自己对 ChatG

25、PT 的评价:“尽管 ChatGPT 还没有实现真正的智能,但它让人体验到了真正的智能实现后,每个人都能用它做各种他们想做的事情的滋味”.整个 2023 年 3 月都被各种生成式 AI 技术和产品的发布充斥,如 Meta Alpaca、GPT-4、PaLM-E、文心一言、Office Copilot、Midjourney V5、英伟达新显卡、Github CopilotX、ChatGPT 插 件、SecurityCopilot 等.我们可以预见相关技术的应用领域将迅速拓展、应用程度将大幅度加深.人们在享受技术带来的便捷和生产力提升的过程中,对技术的态度将从习惯逐渐转变为依赖.而当人们开始依赖这

26、些技术代替自己学习、思考、甚至决策时,有 2 个问题摆在我们面前:技术是否已经做好准备承担责任?人类对技术的信赖是否超出了它的能力?实际上,ChatGPT 在使用过程中已被发现存在诸多问题,如数学计算、未来预测、时空物理现实推理等方面能力的局限,以及事实错误(幻觉)、生成毒害内容等方面的不可控8.下面从可信 AI 的 4 个维度对 ChatGPT 存在的问题展开讨论.1)安全性.OpenAI 在官网上将“安全”列为五个目录之一,在随 GPT-4 发布的报告中批露了其在技术和评估两方面都设立了专门的安全小组,足见其对安全性的重视.然而,和所有机器学习模型一样,ChatGPT 仍存在着被对抗攻击的

27、风险.一种典型方式是提示语注入攻击(prompt injection attack):在提示语中混入恶意指令,可能绕过 ChatGPT 的安全机制,迫使其执行意外动作,如泄露敏感信息、输出有害内容等.例如,ChatGPT 驱动的新 Bing 在受到攻击后泄露了其内部代号“Sydney”;ChatGPT 被诱导规划抢劫方案,甚至提供了购买抢劫道具的链接等.2)公平性.在 ChatGPT 之前,OpenAI 的文生图DALL-E 系列曾被发现存在输出性别和种族歧视内容的问题.类似地,GPT-2、Bert、RoBERTa 等语言模型在一个测试项目中也被发现具有严重的性别偏见倾向9.尽管目前尚无系统性

28、地研究分析 ChatGPT 在性别和种族偏见方面的表现,但已有研究发现它存在明显的语言敏感性.例如,当用日语和俄语分别询问一个日俄争议岛屿的归属问题时,ChatGPT 给出了截然不同的答案10.3)可解释性.ChatGPT 的思维链能力可以在答案中同时呈现推理过程,这在部分程度上解决了实验室环境下模型可解释性的问题.然而,需要注意的是,这种推理过程的解释是面向用户的,并不一定与模型的实际运行机制准确对应.此外,ChatGPT 仍存在很多尚未解释的行为,包括自我在线纠错、理解弦外之音等能力,以及出现事实错误(幻觉)等问题.由1194计算机研究与发展2023,60(6)于大模型本身的复杂性以及仅通

29、过 API 提供服务的现实限制,ChatGPT 对于用户和开发者都是完全的黑箱.随着应用场景的拓宽和加深,现有的解释性水平可能难以满足透明度和回溯性等的要求.4)数据隐私.涉及训练阶段的数据侵权和推理阶段的隐私泄露两个方面.大模型训练需要的海量数据多来自网络,其中难免包括未经授权的版权保护内容.ChatGPT 虽然可能避免语句层面的抄袭,但难以避免语义上的深度抄袭.2023 年,大模型领域发生了多起版权侵权案.例如,3 名艺术家指控 StableDiffusion 使用其版权作品作为训练数据,而微软和OpenAI 因其开发被指控其开发的编程助手 Copilot涉嫌复制 Github 上的开源代

30、码而受到指控.在推理阶段,攻击者有可能通过逆向攻击等手段,利用模型输出的结果来反向推导出训练数据中的隐私信息.GPT-2、BERT、RoBERTa 等语言模型均被发现存在数据隐私泄露的风险11.随着模型规模和功能多样性的增加,这种风险可能进一步加大:模型规模越大,其记忆能力越强;功能越多样化,可被利用的信息和攻击方式也越丰富.ChatGPT 自身代号的泄露便证实了这一点.从生成式 AI 模型选择的技术路线和当前发展水平看,这些问题既可以归结为大型语言模型固有的结构局限,也可以归结为将符号任务统一建模为对话问题的过度简化.关于这条技术路线的未来发展,同时存在着乐观和悲观两种观点.乐观派认为,人脑

31、神经元突触连接总数约为一百万亿,随着语言模型参数量的不断增加,模型可能在某个时刻实现量变到质变的跃迁,这些问题也会自然消失.然而,包括乔姆斯基、Stuart Russell 等大佬在内的悲观派则持相反观点,他们认为端到端的深度学习与人类进行推理和使用语言的方式有着巨大差异,依靠更多数据和算力无法消除这些缺陷或实现真正的智能.不讨论技术路线的选择或者观点的对错,不管生成式 AI 模型的能力演进到何种程度,其定位始终是帮助人类更好地完成任务的工具.作为工具,首先应该明确能力边界,即“做自己能做的事”.在认知心理学中,约瑟利窗口(Johari Window)将人际关系划分为公开区、盲区、隐藏区、未知

32、区四个象限12.参照这种方法,如图 2 所示,我们可以沿“自知”和“能力”2 个维度绘制一个坐标系,智能工具处理的任务将落在其中一个象限内.当任务落在“自知”负半轴的 2个象限时,可能会出现不可预知的问题:在隐藏区时,模型“不知道自己能”,可能在收到用户反馈后将原本正确的答案改为错误,或接受用户错误反馈的引导;在未知区时,模型“不知道自己不能”,可能会产生事实错误幻觉,一本正经地胡说八道.自知能力隐藏区“不知道自己能”未知区“不知道自己不能”盲区“知道自己不能”公开区“知道自己能”确定能力边界提高能力范围Fig.2Awareness-capabilities coordinate system

33、图 2“自知”“能力”坐标系 根据“自知”“能力”坐标系,首先需要明确能力边界,即扩大“自知”正半轴 2 个象限的覆盖范围,使更多任务落入公开区和盲区.在公开区时,模型可以自信地回答用户的问题;而在盲区时,模型应该承认能力缺陷,避免回答不知道的问题,或者虚心接受用户的反馈引导.PAL13是开发隐藏区的一个例子,通过在提示词中注入包含推理过程的程序示例,成功挖掘了模型在原本容易回答错误的数学推理类任务的解决能力.在明确能力边界后,需要进一步提升模型的能力,即扩大“能力”正半轴、尤其是第一象限的面积,使更多的任务从盲区转移到公开区.缩小盲区的一个例子是 ReAct14,它将推理和行动结合,通过调用

34、搜索等插件从网络等外部资源中逐步、有选择性地收集和处理新信息,从而提高了模型在各种复杂场景下的解决能力.另一个最新提出的框架 Refl-exion15,它在 ReAct 基础上加入了自省(Reflect)功能,通过试错的方式,在寻找自身能力边界的同时,探索新任务的解决方案.这是一个在同时确定能力边界和提高能力范围方面很有意思的尝试.当然,“自知”“能力”坐标系只是一个理想和简化的框架.人类在执行任务时,通常会考虑诸如道德、伦理、公平等价值观.而 ChatGPT 并不具备人类的价值观和判断力,可能会生成与事实相悖的错误信息和误导性的建议.比如,当用户询问“林黛玉是如何倒拔垂杨柳的”,ChatGP

35、T 会一本正经地介绍相关具体细节.事实上,林黛玉倒拔垂杨柳是一部网络小说,中文论坛上也有许多对这一虚构情节的讨论.模型在学习这些语料时无法区分虚构和现实,因此产生了这个尴尬的回答.随着 GPT-4 的发布,可以预见ChatGPT 将有能力在符号世界中实现自动化生成.然而,它依然不能确保所生成内容的真实性,自然更无法对生成结果承担责任.桑基韬等:从 ChatGPT 看 AI 未来趋势和挑战1195 3什么是“真”?为了解释为何 ChatGPT 无法保证结果为真,首先需要探讨什么是“真”.“真”的定义有很多,本文采用亚里士多德的经典定义16:说是者为非,非者为是,即为假;而说是者为是,非者为非,即

36、为真.基于此,Tarski 提出一个更形式化的“真”的定义17:X 是真语句当且仅当 p,其中 p 代表任意语句,X 是语句 p 的名称.即,一个语句是真的,当且仅当它描述的情况确实发生了.比如:“树在长芽”是真语句当且仅当树在长芽,即“树在长芽”是真语句当且仅当树在长芽确实发生了.但是,这个看似合理的“真”的定义却隐含矛盾.Tarski 转述了乌卡谢维茨的加强版说谎者悖论:令 C 是“C 不是一个真语句”的名称,因此,有如下 2 个假设:1)假设:C=“C 不是真语句”;2)假设:“C 不是真语句”是真语句当且仅当“C 不是真语句”.综合 假设与 假设,即可以得到:C 是真语句当且仅当“C

37、不是真语句”,悖论.Tarski 关于“真”的定义和上面的推理似乎都没有问题,那问题出在哪里呢?我们认为问题出在概念的定义上,因此需要仔细考察概念的定义.众所周知,概念的经典表示由 3 部分组成:符号表示、内涵表示和外延表示.其中,概念的符号表示由概念名称表示,概念的内涵表示由描述概念特性的命题表示,概念的外延表示由概念所包含的实例的经典集合表示.比如,“偶数”这个概念,其中文符号表示是“偶数”这个词;内涵表示是“能被 2 整除的整数”这个命题;外延表示是“包含所有偶数的集合”:,6,4,2,0,2,4,6,.如图 3 所示,根据经典表示,每个概念具备 3 种功能:指名、指心和指物,同时对应着

38、波普尔的 3 个世界:符号世界、心理世界和物理世界18.概念的指名功能,是指每个概念都指向认知世界或符号世界中的一个实体,用所指对象的特定符号名称来表示.这些符号名称可以组成各种不同的语言.概念的指心功能,是指每个概念也指向人类心理世界中的实体,代表这个概念在心理世界里的对象表示.概念的指物功能,强调概念与物理世界中的实体之间的对应,这些实体遵循物理世界的规律,可以独立于人的主观感受.概念经典表示世界层次人工智能分类符号世界心理世界物理世界符号:指名内涵:指心外延:指物认知智能情感智能行为智能感知智能对应功能实现Fig.3Classical representation of concepts

39、图 3概念的经典表示 如果从概念的表示来实现人工智能,指名、指物、指心对应了 3 条路径:符号主义、连接主义和行为主义.如果从概念的功能角度来对人工智能分类,可以分为认知智能、情感智能和行为智能.认知智能实现了概念的指名功能,即处理和理解符号世界的问题.情感智能则实现了概念的指心功能,主要关注心理世界中的问题.而行为智能则体现了概念的指物功能,主要解决物理世界中的问题.然而,如果要实现概念的三指功能,必须首先解决机器的感知问题.解决机器感知问题是最基本的人工智能,通常被称为感知智能.感知智能主要关注机器的输入输出处理,是实现认知智能、情感智能和行为智能的基础.在概念的经典表示下,概念的指名、指

40、心与指物功能是等价的,其符号表示、内涵表示和外延表示在功能上也是可以互换的.这是因为概念的经典表示存在 6 条预设:1)概念的外延表示可以由集合x1,x2,表示;2)概念的内涵表示存在且用命题xP(x)表示;3)概念的名称存在,且用符号表示 A;4)概念的外延表示与内涵表示同名:A=x1,x2,=“xP(x)”;5)概念的表示唯一,即同一个概念的表示与个体无关:(A=A),代表一个人;6)概念的指称等价,即其内涵表示与外延表示在指称对象的时候功能等价x(xAP(x),其中,A=x1,x2,.根据上述概念的经典表示,可以知道概念的指名、指心与指物功能是等价的.在日常生活中,这种情况非常普遍,因此

41、说真话是通常的情形.罗素曾给出一个清晰的论证19:“除非假定说真话是一种通常的情况,否则没有人能够学会说话:假设当你的孩子看到一条狗时,你随意地说出猫、马或者鳄鱼,那么当他看到的不是一条狗时,你无法通过能1196计算机研究与发展2023,60(6)通过说狗来欺骗他.因此,说谎是一种派生的行为,它预设了说真话是通常的规则.”在上述罗素的论证里,可以清楚地看到,其预设了概念的指名与指物等价,即假设概念的三指等价是真的必要条件.如果概念的指名、指心与指物功能等价,则可以认为:认知智能、情感智能与行为智能等价.这意味着一旦实现了认知智能,也就同时实现了情感智能和行为智能.同时,人工智能的 3 条实现路

42、径符号 主 义、连 接 主 义 和 行 为 主 义也 是 等 价 的.ChatGPT 和 GPT4 的出现,表明认知智能已经取得了巨大的进步.如果概念的三指等价,那么认知智能的巨大进步预示着情感智能和行为智能将取得同样的巨大进步.从这个角度看,实现 AGI 似乎也有可能性.然而,乌卡谢维茨悖论告诉我们概念三指等价在逻辑上并不永远成立:它内蕴矛盾.Tarski 的真定义实际上等价于如下命题:概念的指名功能为真当且仅当概念的指物功能为真.显然,概念的经典表示也预设了 Tarski 的真定义.仔细分析乌卡谢维茨悖论的逻辑推理,可以发现 假设与 假设都预设了“概念的指名功能为真”与“概念的指物功能为真

43、等价,这必然导致悖论.实际上,在概念的三指等价条件下,针对包含算术系统的逻辑系统,哥德尔证明了不完全性定理,而 Tarski 得到了著名的真之不可定义定理.这些都说明在复杂一点的符号系统内部,不可能解决何为真、何为假的问题.因此,从理论上讲,ChatGPT 和 GPT4 同样无法解决真假问题.因此,有时必须放弃概念的三指等价假设.一旦放弃了这个假设,就会发现认知智能、情感智能与行为智能是不可能等价的.实际上,现实生活中,这三种智能从未等价过.4AI 的未来很多人认为 ChatGPT 已经开启了第四次技术革命.面对这种尺度的变革,我们很难在早期准确预测未来的发展.在这里,我们仅从中短期技术趋势

44、和长期发展路径 2 个方面,来探讨在当前阶段我们对这一技术的理解.4.1中短期技术趋势OpenAI 发明 ChatGPT 对于人工智能领域的影响,可以类比哥伦布发现了美洲大陆.在哥伦布发现美洲之前,探险家们一直渴望着探索新大陆,并尝试使用各种方法去寻找它.然而,即使是经验非常丰富的探险家,也并不确定新大陆是否真实存在,以及哪种航海方法更为有效.哥伦布的成功不仅坚定了后来探险家们的信心,更在一定阶段内统一了寻找新大陆的方法:在新的突破性技术出现以前,看似简陋的帆船和罗盘已经足以带领人们到达目的地.同样地,ChatGPT 的诞生为人工智能领域注入了信心并指明了发展方向,展示了“大力出奇迹”的可能:

45、通过不断扩大神经网络的模型规模和增加数据量,可以在 AI 的道路上取得实质性的进展.在这一目标和技术路线的共识下,我们从拓展应用、克服局限和探索理论 3 个方面探讨人工智能领域中短期的可能技术趋势.4.1.1拓展应用1)垂直化.ChatGPT 发布初期,人们尝试在提示词中注入角色信息以增强垂直领域对话质量.为克服提示词 token 数量限制以融合领域语料,有工作提出基于 LangChain 框架,将领域文档切片后分布式输入,但这种做法存在私域数据泄露风险,解决思路之一是利用 ChatGPT 控制和调用其他领域模型来提高垂直化能力.此外,麻省理工学院最近提出保护隐私的迁移学习框架 Offsite

46、Tuning20,可在不访问完整模型的前提下,在下游领域数据上微调数十亿级参数的基础模型.对于需要构建领域模型的场景,在不泄露基础模型和领域数据的情况下,实现对通用基础模型的领域微调非常重要.2)个性化.个性化可视为垂直化的极致,针对个人需求和偏好的个性化微调模型能够提供更精确的服务.典型的应用场景包括个性化推荐系统、个性化教育辅导、个人 AI 助理等.微软于 2023 年 4 月 4 日开源了大模型协作项目 JARVIS,旨在在大型语言模型 与 机 器 学 习 社 区 的 其 他 模 型 之 间 建 立 连 接.JARVIS 这个名字让我们对钢铁侠中同名的 AI 助理产生更多联想.如果未来

47、个性化模型可以通过多模的人机交互来增强,实现与人类对世界的同步感知、学习和成长,这样的 AI 助手能够更好地理解个性化需求、情感和行为,协助我们实现更高效的工作、学习和生活方式.在这个过程中,我们需要解决诸如中心平台式 AI 如何保护个人数据以及在个体层面部署模型等问题.3)工程化.ChatGPT 的诞生在某种程度上是工程化的胜利,而它的成功无疑将进一步加速 AI 技术从实验室研究走向工程化和产业化.从必要性上看,随着数据量和计算资源需求的增加,工业界拥有更好的条件主导大模型研发,相关实验室研究也需调整研究范式和目标以适应工程化需求.从可行性上看,桑基韬等:从 ChatGPT 看 AI 未来趋

48、势和挑战1197ChatGPT 的成功让工业界看到了 AI 技术在各行业落地和价值实现的可能,众多开源项目和成熟技术框架的出现则为 AI 技术工程化提供了支持.从重要性上看,工程化是一个学科发展和成熟的标志,AI 技术的工程化有助于进一步优化和完善相关技术,激发学术创新活力,推动 AI 领域的整体发展.4.1.2克服局限1)多模态增强.多模态大模型的发展逐渐以语言模型为主,将视觉、语音等多模态信息映射到语义符号空间进行处理.近年来的多模态解决方案更是提出直接以大型语言模型为基座来拓展多模态能力,如 Visual ChatGPT 和 MM-ReAct 以 ChatGPT 为 中 心调度其他视觉模

49、型、PaLM-E 固定语言模型训练额外的视觉编码器等.然而,人类在进行多模态学习时并不完全依赖于符号空间,大脑神经网络在不同感官区域间传递、整合信息,同时结合视觉形象、空间关系等非符号性表示.由于多模态世界建模更为复杂,以语言模型为主或是现有条件下的一种技术折衷.随着多模态数据量与模型参数继续增加,有望在视觉、语音等空间实现真正的多模态生成能力.如被细线系着的气球照片,无需映射至语义空间,模型即可预测线剪断后的情景.2)人机交互增强.有人将现在的 ChatGPT 比作一个博览群书的神童,却从未亲身体验过这个世界.经典的认知实验发现,与被动旁观的猫相比,具有自由活动能力的猫可以通过主动与环境互动

50、并获得反馈,从而更好地学习行为能力21.在一项微软的最近研究中,ChatGPT 已经能够根据人类的要求自动编写代码并指挥无人机协助完成任务22.通过进一步考虑生物学特性、身体感知和行动的影响,有望实现与真实物理世界的双向交互,在自主行为反馈中不断提升自身智能水平.3)可信增强.之前的讨论已概括了 ChatGPT 当前的局限和进行可信研究的必要性.可以预见,每个大模型公司都将需要一个专注于可信的安全和伦理团队.这就不难理解 OpenAI 的系列举措:GPT-4 在训练完成后经过半年的评估和修正才发布、用 30 余页技术报告介绍安全补丁 System Card,以及对模型评估框架 Evals 的开

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2026 宁波自信网络信息技术有限公司  版权所有

客服电话:0574-28810668  投诉电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服