收藏 分销(赏)

大模型领航者AIGC实践案例集锦.pdf

上传人:宇*** 文档编号:4215496 上传时间:2024-08-26 格式:PDF 页数:235 大小:14.18MB
下载 相关 举报
大模型领航者AIGC实践案例集锦.pdf_第1页
第1页 / 共235页
大模型领航者AIGC实践案例集锦.pdf_第2页
第2页 / 共235页
大模型领航者AIGC实践案例集锦.pdf_第3页
第3页 / 共235页
大模型领航者AIGC实践案例集锦.pdf_第4页
第4页 / 共235页
大模型领航者AIGC实践案例集锦.pdf_第5页
第5页 / 共235页
点击查看更多>>
资源描述

1、2024 年,AIGC 经历着爆发式增长的热潮。不仅各类国产大模型如雨后春笋般相继崛起,相关的商业化应用也步入了绽放期。从内容创作、数字电商、企业生产场景到医疗、教育领域,各行各业都在探索如何利用AIGC提高效率和创造价值,并被注入了前所未有的创造力与想象力。随着技术的蓬勃发展,围绕 AIGC 的应用生态逐渐形成。在此期间,大模型领域内“百家争鸣”的激烈竞争,加速了行业价格战的兴起,更在无形中极大推动了 AIGC 技术普及至大众的进程。AIGC 的各类应用开始广泛从理想迈向现实,惠及越来越多的用户群体。面对这样的发展趋势,极客邦科技旗下 InfoQ 极客传媒自 2024 年初,启动大模型领航者

2、访谈栏目,并策划实施了一系列围绕 AIGC 和大模型的选题报道、专访、直播、演讲分享等多种形式的内容,聚焦于实际案例应用、大模型的实际部署、团队背后的故事等核心话题,与众多行业专业人士进行了深入的对话与探讨。旨在深入了解当前 AIGC 前沿技术在企业应用领域的最新动态,为各行业提供实战经验与趋势洞察。大模型领航者电子书正是基于前述内容,进一步做了筛选、提炼和分类。此次推出的第一期电子书收录了 InfoQ AIGC 频道在 2024 年上半年发布的超 20 篇文章,包括 QCon 全球软件开发大会(北京站)2024 和 AICon 全球人工智能开发与应用大会(北京站)2024 的热门演讲,以及对

3、钉钉、面壁智能、数势科技、腾讯、京东、字节跳动、图灵机器人、云知声、零一万物、达观数据等企业的独家采访。本册共包括“大咖视野”、“观点碰撞”、“应用案例”、“技术实践”与“AI 测评室”五个部分。其中,“应用案例”又涵盖互联网产品、企业生产提效、医疗、教育以及更多垂直行业的章节内容,分别从不同行业的视角展现了大模型应用的无限潜力;“AI 测评室”则囊括了今年各热门大模型的实测。卷首语 PREFACE极客邦科技创始人兼 CEO2024 年 7 月受限于电子书篇幅,我们无法尽数呈现 InfoQ 在 AIGC 频道的全部精彩内容。但与此同时,InfoQ 开设的AI 前线微信公众号正保持着每日的优质内

4、容更新,不间断地向 AI 爱好者、开发者和科学家,持续奉上大模型最新资讯、AI 技术分享干货、一线业界实践案例,希望助力大家全面拥抱AIGC。欢迎关注!在这场前所未有的时代变革中,极客邦科技期盼与大家并肩前行,一同深入探索 AIGC 时代的每一步发展,合力推动生成式 AI 领域人才的全面成长,以及规模化落地的宏伟愿景。CONTENTS目录大咖视野|VISION观点碰撞|OPINION01 钉钉卡位战:SaaS 挣不到的钱,Agent 会挣到02 26 岁带着百人团队冲刺大模型,面壁智能天才 CTO:高效比 参数更重要03 这个离开大厂去 AI 创业的互联网大佬,带着他的“Killer Agen

5、t”来了04 大模型开闭源争吵不休:开源落后闭源一年,决定模型能力的 不是技术?05 “国外一开源,国内就创新”!面对中美大模型差异,我们该突 破还是继续模仿?713202937应用案例|CASES 第一章:互联网产品第二章:企业生产提效第三章:垂直行业06 如何 1 秒内快速总结 100 多页文档?QQ 浏览器首次揭秘大 模型实现技术细节07 京东商家智能助手:Multi-Agents 在电商垂域的探索与 创新08 字节跳动代码生成 Copilot 产品的应用和演进09 大语言模型加持,是智能运维架构的未来吗?10 用 AI 面试员工的企业,知道打工人在想什么吗?!11 AI 代码助手革新编

6、程界:腾讯云专家汪晟杰深度剖析机遇与 挑战12 巨头们涌入的医疗大模型,何时迎来最好的商业时代?13 AI 老师的强大功能+真人老师的情感交流=未来教育?14 4 人团队,如何用大模型创造近千万业务价值?4761718093100107112127技术实践|TECHNOLOGY第一章:大模型训练与推理第二章:RAG 与智能体落地15 万字干货!手把手教你如何训练超大规模集群下的大语言模型16 当大模型推理遇到算力瓶颈,如何进行工程优化?17 AI 辅助内部研发效率提升,昇腾大模型推理的最佳实践18 智能体技术发展趋势:谈大模型智能体与开放领域融合19 Agent 还没出圈,落地先有了“阻力”:

7、进入平台期,智力 能否独立担事?20 “驯服”不受控的大模型,要搞定哪些事?170175188AI 测评室|EVALUATION01 算数不行、还不懂中国文化,大模型现在抢不了设计师的饭碗!02 首届大模型“相亲大会”开始啦!谁是你的天选 CP?03 Kimi 的词+Suno 的曲:能带我入选中国新说唱,但还 是干不过原神!195206223137160163-6-大模型领航者AIGC 实践案例集锦大咖视野VISION-7-对话先行者洞见新未来钉钉卡位战:SaaS 挣不到的钱,Agent 会挣到出 品|InfoQ 大模型领航者 主 持|霍太稳,极客邦科技创始人兼 CEO嘉 宾|叶军(不穷),钉

8、钉总裁作 者|褚杏娟,InfoQ 编辑编 辑|蔡芳芳,InfoQ 主编“2020 年,刚带队做出全国第一张健康码的不穷加入了钉钉。不穷是阿里的第一位校招计算机博士,从 PC 时代开始触网,完整经历了移动互联网时代。而他如今面临的,是一场关于大模型的竞备赛。想必已经无需用过多笔墨赘述。2022 年底至今,ChatGPT 的出圈程度还没有谁能超越,其背后的技术方向也早已经被竞相追捧。就像不穷说的“大家都充满了 FOMO 情绪。”那么身处其中的钉钉,能够在这次浪潮中扮演什么样的角色?-8-大模型领航者AIGC 实践案例集锦“我们依赖这些大模型公司”今年 1 月,OpenAI 正式推出了 GPT St

9、ore。几乎同时,钉钉发布了 AI 助理,并宣布 4 月推出 AI 助理市场。“GPT Store 上线的第一天我就用了,当天就已经有非常多的产品了,速度非常快。但我分析了所有数据后发现,GPTs 同质化非常严重,而且都是一些通过简单限定词、指令或角色扮演来形成的 AI 助手。”不穷说道。这一体验让不穷认定,钉钉未来的 AI 助理市场不做全量推荐,只会推荐精选过的 AI 助理。不穷强调,钉钉模式与 GPT Store 的不同:GPT Store 通过不断丰富插件使 AI Agent 能够批量调用外部系统的能力,但它的组合效率要比钉钉低,因为钉钉拥有天然的 To B 环境,其中有大量的工作任务需

10、要解决。不穷认为,目前钉钉的能力不在于做自己的大模型,而是在应用和数据,在工程性、用户体验以及 To B 理解方面。对于 Agent 来说,大模型只是其中的一个能力,此外还需要非常好的场景和高质量的业务环境数据,这两者恰恰是钉钉有、而 OpenAI 目前还欠缺的。和很多企业一样,钉钉最初也没有一下就找到合适的入局方式。一年多前,看到自己与微软不约而同地都选择了给当前产品增加 AI 能力时,钉钉团队觉得这种方式已经很让人眼前一亮了,但大模型爆发的能量远比想象得还要大。整个 2023 年,OpenAI、微软、谷歌等大模型发布频繁,李开复、王小川等也亲自下场发布大模型去年 4 月,钉钉全面投入智能化

11、,开始用大模型逐个将高频产品重做。到了当年六、七月份,钉钉内部有人提出:能否有一个直接 AI 原生的产品?这引发了内部关于从“+AI”到“AI+”的争论。这个想法与去年 10 月李彦宏公开提到的 AI 原生理论异曲同工,可见国内的探索思路其实差异并不大。那什么是 AI 原生?钉钉也在思索。其实在将思维转换成以 AI 为中心后,这个问题就不难回答。“AI 原生产品从一开始的思考就是全新的,就是要用纯 AI 的思路来解决一个任务。它从数据感知、任务分解,再到思维链,最后到行动执行,是一种全新的思考架构。”不穷表示。而对于做 AI 原生的方式,钉钉选了 Agent。-9-对话先行者洞见新未来对于与国

12、内大模型公司的关系,用不穷的话说是:“我们依赖这些大模型公司,它们是我们的发动机和心脏。没有它们,我们无法运行。”面向 AI,不穷把钉钉定义为 AI 应用创作平台,企业在这个平台上连接、开发和加工各种应用。钉钉的核心任务就是连接场景和数据,实现结构性自动化和批量处理各种工作,并通过 Agent 让创作变得更简单。具体来说,钉钉的职责是确保外部记忆存储部分的完善,包括短期和长期记忆的处理,同时做好任务规划,之后将大模型生成的内容与本地业务数据集成,并将形成的行动在各个系统中落地。在不穷看来,当前国内各个基础模型之间的差距并不大,未来不是每个开发者都会关心基础模型的选择,他们更注重解决业务场景中的

13、问题。因此,如果基础模型效果不理想,开发者应该可以随时更换。因此,为快速上线和体验,钉钉选择了通义千问作为默认大模型,除此之外用户有需求时还接入了其他大模型公司的模型,如智谱 AI、月之暗面、Minimax 等。用户的业务逻辑可以建立在自己选择的基础模型体系上,业务流程和数据流也不会进入钉钉平台。“根据不同的场景和需求,我们可能还会推荐小模型或专用模型。”不穷说道。不穷在给用户提供模型的选择建议时,会提醒他们更加关注模型的性能,如每秒处理的 token 量;大模型的安全性问题等,如本地部署还是云上部署;工程解决方案的多重性和便捷性等。这些问题也是钉钉构建 AI 助理时实际遇到的。“C 端还没有

14、太多优秀的产品形态出现”无疑,GPT Store 的模式吸引了大批用户:刚正式发布时,OpenAI 就宣称已经有超过 300 万个 GPTs。与传统软件相比,AI 助理、GPTs 等的不同之处在于拥有非常快的更新速度,模型、交互方式、数据和产品形态等方方面面都变得迅速,开发者也不要从头到尾进行开发和维护。这种模式还大大降低了开发门槛,没有研发背景的人也可以尝试,而对于研发人员来说则大大缩短了研发、测试等成本。-10-大模型领航者AIGC 实践案例集锦“SaaS 挣不到的钱,会通过 Agent 挣到”相较 C 端,B 端是不穷更看好的方向,因为 To B 场景更容易产生有效的产品:确定的数据和场

15、景可以帮助解决大模型的幻觉问题,同时通过批量和自动化的方式提高 To B 常见工作流和任务一方面,这意味着传统软件的研发模式可能会面临变革;但另一方面,不穷也指出,百万千万级的 GPTs 目前看相对来说形式比较单一,没有传统软件那样强大的业务理解能力,因此目前 GPT Store 中的应用很难成为高价值产品。不穷认为,尽管 GPTs 的创建能力很强,甚至一天可以创建几十个,但它目前还代替不了传统软件市场。钉钉也在寻找有价值的产品。在 1 月份宣布启动的 AI 助理创造大赛上,目前有超过 2000 支队伍提交作品,不穷也会亲自体验这些 AI 助理,寻找优秀的作品。那么,个人玩家又如何在 GPT

16、Store 这种模式中赚到钱呢?不穷的答案是价值,“只要有价值就一定能挣到钱,只是迟早的问题。”在他看来,个人或企业创建 AI 助理的核心在于要解决具体的问题,解决问题本身就有价值。但现在“卖工具”的人可能不是最终解决问题的人,解决问题的人是那个场景中离问题最近的人。AI 助理的商业模式则与传统软件相似,需要一定的用户使用量,“只要使用量上去了,很快就会有开发者赚到第一桶金。”根据不穷的经验,一旦调用量达到百万次,软件做商业化就是必然的。这与之前钉钉在与 IDC 联合发布的2024 AIGC 应用层十大趋势中提到的观点“新一轮的 AIGC 之争,也将会是一场流量入口之争”是契合的。钉钉在其中也

17、提到了有望成为超级 App 的想法。“在目前的 To C 场景中,我还没有看到太多优秀的产品形态出现。”不穷说道,“但是,AI Agent 绝对不是自我陶醉,我相信一定会有出色的产品出来,应该给创新者更多的时间。”根据不穷之前的访谈,AI Agent 和智能助理产品发展到一定程度后,中间态、碎片化的产品成为极简流量入口,就会出现“No App”理念重塑应用的情况:通过对话即可直接调取、使用各种工具,更多非软件专业人员也能获得强大的系统服务。-11-对话先行者洞见新未来流的效率问题。不穷指出,To B 软件的目的是解决问题,所以这里天然聚集了大量的问题和数据。在这样环境里构建的 AI Agent

18、,传统 SaaS 和 PC 软件软件的开发流程、产品交互、形态及维护等的缺陷都将得到弥补。未来,SaaS 的定制化或各种行业需求,都可以用简单、低成本的方式实现。“Agent 市场形态肯定会取代传统软件市场形态。更重要的是,它将取代传统 SaaS 的产品形态。”不穷说道。现在 AI 助理的 to B 服务中,钉钉要与用户频繁、深入地互动,根据反馈不断调整和改进。比如在解决一家芯片企业客服培训难题时,钉钉团队要去公司了解实际工作流程,然后将线下流程转化为线上的 AI 助理。虽然每个企业的需求相同,但产品会逐渐沉淀下来。企业自行完成标注、训练和本地化数据接入,钉钉则保留抽象层和公共层,逐渐完成产品

19、的广泛行业适用性。不穷评价 OpenAI 做产品就像是科学家通过成千上万次的实验,最终找到一个正确的方向,逼近科学真理。而钉钉则投入大量时间与客户共创,解决他们的实际问题。两者虽然方向不一,但殊途同归。与大模型创业公司苦苦寻找自己的商业模式相比,钉钉探索出来的大模型商业模式已有两种。第一种是基于调用量的模式。无论个人 AI 助理还是企业助理,产品使用频率越高、解决问题的能力越强,吸引的用户就越多,自然也就需要更多的调用。使用量大,消耗的算力和资源也就越多。第二种是应用层本身带来的商业模式。传统的 SaaS 模式赚钱较为困难,因为它需要大量的定制和本地化需求,AI Agent 的应用能力提供了一

20、个解决方案:简洁的界面、任何需求都可以通过对话来理解,并通过行动系统对接外部系统逻辑,这样就将界面定制化和流程重构的职责就交给了后端模型和 AI Agent 系统。这样,从交互层到模型层,再到持久层,整个过程都得到了简化。因此,SaaS 的维护成本也就降低了。“AI 助理的盈利天花板目前还看不到,随着更多优秀产品的出现,我们可能还会发现新的盈利途径,带来新的惊喜。”不穷说道。不穷认为,通过消耗算力来提供服务只是最基本的模式,除此之外,服务消耗还有很多其他的可能性。他的判断是,未来十几年中国 SaaS 行业挣不到的钱可能会通过 AI Agent 来实现。-12-大模型领航者AIGC 实践案例集锦

21、结束语在提到当前钉钉 AI 助理接下来要重点攻关的方向时,不穷还是说到了数据和场景:数据和场景是 Agent 普遍存在的问题,钉钉的 AI 助理现在有更专注的场景和数据,就像是给“孙悟空戴上了紧箍咒”,好处是能够减少幻觉、能够解决一些通用场景里难以解决的问题。这也意味着,钉钉未来还需要发掘和洞察到更多的场景、沉淀和积累更多的高质量数据。其次,行动能力是目前 Agent 所欠缺的,只是让它们聊天未免太乏味。因此 AI 助理会接入钉钉上原有的应用、低代码等开放能力,不穷希望以此让 AI 助理能够不断出现各种创新玩法,而不仅仅是简单的信息查询和单向交互。比如,AI 助理对接了很多的主流 App 行动

22、系统,比如可以查看淘宝订单等,App 的行动系统实际上就变成了一个 AI 助理,无需在不同系统间切换。在不穷看来,Agent 的最大好处就是它的无限可能性,这种模式不受传统思维和现有框架的限制,是真的可以让想象力转化为生产力的。“我今年非常期待行动系统能够变得更加强大、数据质量得到提升。随着越来越多的人洞察到新的场景,AI 助理将不再是一个个废话大师、一个个应对亲戚的聊天工具、一个个面试官。”不穷说道。访谈里,不穷不掩对微软战略眼光的称赞。“战略需要耐心,如果没有耐心,那就只是投机。”同样地,钉钉对 AI 助理的耐心有多久?AI 助理未来的价值能有多大?这些也是不穷现在要面对的课题。扫码分享文

23、章-13-26 岁带着百人团队冲刺大模型,面壁智能天才 CTO:高效比参数更重要“尽管有所谓的 百模大战,但实际上,国内真正能够成功训练大模型并掌握相关技术的团队并不多。”面壁智能 CTO 曾国洋说道,“不是简单地训练出一个模型就意味着掌握了全部技术。”面壁智能起于一群学术极客。2021 年,清华大学计算机系长聘副教授刘知远的牵头成立了面壁智能成立,团队成员主要来自清华大学 NLP 实验室,而曾国洋成为这家初创公司的技术 1 号位。曾国洋如今更以“天才少年”的形象被人熟知:8 岁学编程、高中去旷视实习、大二加入清华 NLP 实验室。人们通常很难将眼前这个 98 年的少年,跟“BMTrain、B

24、MInf 主要作者”“OpenBMB 开源社区发起人”“当红大模型创业公司 CTO”等联系在一起,但 26 岁的他确实已经被推到了大模型时代的舞台中央。出 品|InfoQ 大模型领航者 主 持|霍太稳,极客邦科技创始人兼 CEO嘉 宾|曾国洋,面壁智能 CTO作 者|褚杏娟,InfoQ 编辑编 辑|蔡芳芳,InfoQ 主编-14-大模型领航者AIGC 实践案例集锦从自己 coding 到看别人 coding2022 年 8 月,面壁智能开始公司化运作。直到去年年初,面壁智能只有 10 个人不到。当时的曾国洋依然活跃在编程一线。作为程序员的曾国洋,是早期第一批申请试用 GitHub Copilo

25、t 的用户之一。他把 AI 看成是合作伙伴:AI 辅助程序员完成某些任务,而程序员则可以专注于更具创造性和战略性的工作。“我很喜欢能够帮助加速编程的工具,”曾国洋说道,“我们不应该简单地认为只要代码被写出来,程序员的工作就完成了。编写代码只是程序员工作的一部分,如何将想法架构化以及合理划分模块并确保它们之间的有效协作等,都是程序员工作中相当重要的一部分。”去年 5 月份后,面壁智能的规模越来越大,内部也设立了数据处理、模型训练、模型评测、算法、Infra、运维等不同的团队,以便更好地训练大模型。他的工作重心逐渐转为保证组织的有效协作。在此期间,面壁智能迎来了许多对通用人工智能(AGI)充满激情

26、和信仰的年轻人,“他们对 AGI 有浓厚的兴趣和追求,甚至愿意降薪过来。”但在爆火之前,大模型并没有被广泛关注和应用,因此有相关经验的人才很少。这意味着几乎所有人都是从头开始学习和探索大模型。因此,团队在招揽新人时并不把大模型经验放在首位,而是更看重候选人的学习意愿、对新技术的热情、以及创新和解决问题的能力。如今,面壁智能已经拥有超 100 人的科研团队,平均年龄 28 岁。这支团队的“清北”含量 80%,此外还有来自阿里、字节、百度等一线公司的骨干。面壁智能没有给技术团队设立严格遵循 KPI 的管理形式,也没有在每一个非常具体的时间点设定明确规划,只是制定了一个大概的发展节奏和方向,因为合作

27、的都是顶尖聪明的同事,而聪明人是会自己给自己定目标的。“我们要做的不是个人明星,而是明星团队,让聪明人能更好地合作、互相创造价值,一起创造更伟大的价值。”面壁智能倾向“小而美”的技术团队。曾国洋强调,“小而美”并不是说团队规模小,而是指团队能够保持高效、灵活和创新的状态,成员能够频繁交流、头脑风暴,共同推动项目发展。对于技术创业公司来说,这样的团队更加敏捷和灵活,更容易产生新的思想和创新。每个成员能充分发挥自己的专长和创造力,同时快速响应市场变化和技术演变。大模型团队的研发速度可以用争分夺秒来形容。面壁智能团队之前以两周为单位的内部迭代频率-15-对话先行者洞见新未来已经成为过去式,如今的节奏

28、已经将近一周一迭代了。不断演进期间,也让面壁智能对自己做的事情有了更深入的思考。不再一味追求参数国内庞大的市场规模为大模型创业提供了巨大的发展机遇,但 OpenAI 等国外公司的频繁迭代,确实也给了国内公司很大的技术压力。时至今日,很多公司的大模型发布出来时,都是对标的 OpenAI。不过,曾国洋表示,“我们并不过分担忧落后的问题。”他分享了一段自己的经历:ChatGPT 刚刚发布时,大家都赞叹它的强大能力并讨论需要投入多少资源才能追赶上。后来,我自己投入了一些资金,买了几百条数据训练我们的模型。那次训练完测试后,我感受到了 ChatGPT 的那种效果。这个瞬间让我意识到,我们离它实际上并没有

29、想象中那么遥远。这个经历不仅让我自己感到振奋,也给了我们团队巨大的信心和动力。它证明了我们的努力和方向是正确的,只要我们继续坚持,完全有可能达到甚至超越行业领先者。曾国洋有作为技术人的自信和思考。“我们将 OpenAI 的成就和国际市场的竞争态势当作一种衡量自己的标杆,但不会盲目跟随。我们清楚地认识到,OpenAI 的技术路线可能并不适合我们,我们需要根据自己的实际情况和优势来制定发展策略。”曾国洋说道。回顾 2023 年,面壁智能一直略显低调地走在大模型潮头:当年 5 月,发布了百亿参数的 CPM-Bee 大模型;年中,推出了千亿参数多模态模型 CPM-Cricket,综合能力对标 GPT-

30、3.5、超越 LLaMA 2。但在 2021 年、2022 年,国内在大模型上进行了大量探索,但最终都没有出现一个像 ChatGPT 的突破性应用。这让面壁智能的技术团队意识到,一味地追求模型参数量行不通,训练出一个大模型也不是最难的部分,更难的是如何突破模型的智能极限,在用同等参数、同等数据量的情况下,更快速低成本地跑出更好的模型性能。在曾国洋看来,未来大模型的发展应该朝着高效率的方向发展:大模型要为用户带来更大的价值-16-大模型领航者AIGC 实践案例集锦和更广阔的商业空间,而这主要取决于模型创造的价值和创造这一价值所需的成本。今年 2 月份推出的 MiniCPM 模型就是面壁智能对大模

31、型高效探索的样板间。发布会上,面壁智能 CEO 李大海提出了要“以小搏大”,曾国洋也表示 MiniCPM 用 2B 干掉 LLaMA 的 13B。这意味着,面壁智能正式进入小尺寸端侧模型的竞技场,并且还将其完全开源,以帮助大模型行业整体技术发展。起初,端侧模型并不在团队计划中,但是在测试中发现并验证了这么高性能的模型可以在手机上顺畅运行,这给团队打开了新世界的大门:一旦模型能够在手机上运行,他们就能在端侧探索出更多应用场景,如汽车、VR、智能家居等场景。端侧模型的优势在于,不需要频繁与云端服务器通信,因此处理速度更快;在本地设备上运行,不需要消耗大量的网络带宽和云计算资源,具有成本优势;可以在

32、没有网络连接的情况下仍然发挥作用,这意味着其可以在各种环境下稳定运行。端侧小模型的性能天花板也远未达到。在模型的极致效率方面,通过模型压缩、量化、剪枝等,性能可以进一步优化。其次,端侧设备本身也存在优化空间,硬件制造商可以考虑如何在硬件设计上更好地支持大模型运行。“我有预感,像 GPT-3.5 这样高水平的模型,可能在一两年内就能在移动设备,比如手机上,完全运行起来。”曾国洋说道。在面壁智能看来,大小模型的技术有互相打通、增进提升之处。面壁 MiniCPM 基座模型、多模态模型等“小钢炮”系列领先的端侧模型,都是基于公司千亿级模型研发路线延伸,将淬炼化的大模型训练方法下放至小模型训练中,来实现

33、高效、低成本的模型训练与应用。“不会因别人而改变”变化,是大模型创业公司时刻要面对的问题。就像曾国洋常常被问到:Transformer 会不会突然被新的技术取代,从而让之前的投入都白费?曾国洋对技术的快速变化并不过分担忧。“技术的发展是一个循序渐进的过程,不可能一夜之间出现一个全新的技术彻底颠覆现有的一切,而我们对此毫无准备。”在制定研发路径时,团队也是根-17-对话先行者洞见新未来据技术发展趋势和团队正在进行的工作,逐步调整目标和方向的。对于市面上时不时蹦出来的热点模型或产品,曾国洋也表现得很冷静。以 Sora 为例,曾国洋认为这显示出人们对创意性工作的兴趣,但对于是否跟随这一技术路线则需慎

34、重。“对于创业公司来说,需要格外考量战略目标与投入成本。即使是资金充裕的大公司,虽然有能力进行,但产出并不总是明确,短期内可能无法快速为大众提供实质性的服务。”曾国洋说道,面壁智能致力于将技术更好融入到实际产品和解决方案中。对于前段时间刷屏的月之暗面 Kimi,曾国洋则一方面表示肯定,“Kimi 用户的增长迅速,表明它成功地解决了一些用户的痛点”,另一方面也反思自己,“可能没有充分利用我们在某些方面的先发优势。”他特别提到了去年 5 月份面壁智能推出的一项读论文功能,虽然早就有了类似产品,但当时很可惜没有深入挖掘和清晰传达该功能可以解决的痛点。但曾国洋强调,面壁智能的战略不会因为市场上的其他产

35、品而改变。“我们一直在寻找大模型技术在普通人生活中的应用,并努力解决实际问题,而不仅仅是提供通用的解决方案。”最近,李彦宏“开源模型会越来越落后”的观点也引起了很大的争议,有人“力挺”、有人“怒怼”。对于面壁智能来说,开源是成立之初就做好的选择。正如李大海所说的:“我们一直是开源的受益者,所以也希望做出自己的贡献。并且,一款拥有良好口碑的开源模型,一定是经受住了方方面面的反复检验,在模型性能、体验等综合表现方面,拥有远超过 PPT 成绩的行业认可度。对于我们研发团队,一方面是 360 度无死角的考核压力,另一方面在挑战成功后也会有巨大的成就感。”曾国洋坦承,开源模型要追赶闭源模型确实会面临一定

36、的挑战。这是因为在技术快速发展的过程中,闭源模型可能会因为有更好的知识产权保护和商业秘密而获得一定的优势。这种情况下,开源模型需要同时关注技术创新和与闭源模型保持竞争力。当技术发展进入瓶颈期,那么开源和闭源模型可能就会在技术水平上趋于一致。在这种情况下,开源模型由于其开放性和社区的支持,会有更多的机会迎头赶上,甚至超越闭源模型。另外,开源模型的发展速度也取决于社区和市场的支持程度。如果有更多的个人和组织支持,那么开源生态的发展自然会更快。此外也很重要的一点是,开源本身在技术影响力的建设方面是特别重要的,可以更好地让大众体验团队的技术实力,从而在人才吸引力和市场信心提升方面取得更强的竞争优势。-

37、18-大模型领航者AIGC 实践案例集锦“没有刻意区分 C 端和 B 端”对于以科研人员为核心创始团队的大模型创业公司来说,在战略、产品、经营等方面需要更强的专业管理者。2023 年,时任知乎 CTO 的李大海加入面壁成为 CEO,面壁向更为成熟的大模型商业公司迈下重要一步。今年 4 月,面壁智能又完成了新一轮数亿元融资,由春华创投、华为哈勃领投,北京市人工智能产业投资基金等跟投,知乎作为战略股东持续跟投支持。除了通过融资获取资金外,面壁智能目前已经能够通过提供服务和产品实现一定的收入。面壁智能是国内最早探索 Agent 的大模型公司之一。对于 Agent,每个公司、每个人的理解都不一样。在面

38、壁智能看来,Agent 的边界还未被定义。“模型是底座是一切应用的基础,然后 Agent 是支撑应用很重要的中间层,”李大海认为,无论 to B 还是 to C,本质上都是“大模型+Agent 的上层应用”。曾国洋认为,Agent 实际上是介于纯大模型和通用人工智能(AGI)之间的一个中间状态或节点。Agent 的模型能力必须足够强大,才能有足够的智能理解和处理请求和执行任务。Agent 还需要与外部系统和接口进行交互,来不断拓展能力边界。同时,还能够调用已有的知识库来提供检索和回答服务。而对于大模型领域,李大海曾表示,大模型应用可能会百花齐放,然而通用千亿大模型不会太多,可能只有极少数的几家

39、公司能够最终突出重围。这基本也是行业的共识,基座模型的角逐注定是千军万马过独木桥。那么,大模型公司做应用是对应用侧公司的一种降维打击吗?曾国洋坦言,大模型公司由于其先进的技术和强大的数据处理能力,可能会对那些依赖传统技术或缺乏足够技术储备的应用公司产生影响。如果应用公司的技术壁垒不够坚固,就可能会在大模型技术的快速发展和迭代中受到冲击。例如 Jasper AI 这样的 AI 内容提供商可能会因为 OpenAI 发布了新的 ChatGPT 版本而受到影响。然而,他也表示,应用公司也有自己的竞争优势,比如对特定市场的深入理解、强大的客户关系和品牌忠诚度等,这些都是他们的“护城河”。2024 年,行

40、业更加重视应用落地是当前的大趋势,因为目前模型已经基本可用了。李大海判断,从今年开始,大模型厂商会开始出现分层。但这个分层不是因为市场,更多是因为技术门槛:大家需要更强的模型、更高效率的推理,更好的 Agent 等,但不是每家公司都能跟得上这样的技术要求。“大模型是一个行业级别的机会,哪怕不做基座大模型,做应用层也有非常多的空间。但不是每家-19-对话先行者洞见新未来公司都能够持续做基座大模型的训练,期间有些公司可能就会转型做其他的事情。能活下来的公司一定是技术和产品市场能力都很强的选手。”李大海表示。对于未来的大模型应用,曾国洋提出了一种分工模式:一些简单的、重复性的任务由小型的、特定领域的

41、模型来处理;而更复杂的、需要高级认知能力的思考任务则可能由大型通用模型来完成。结束语最初,人们普遍认为 AI 会先替代那些繁琐的工作,从而让人类有更多的时间从事创造性的工作。但现实情况似乎相反,AI 开始在创作领域发挥作用,而人类仍然在处理日常的工作任务。但曾国洋观察,大模型简化、加速开发任务是正在发生的事情。在创建大模型应用企业的交流中,技术人员并不需要掌握大量的编程代码,更重要的是他们对最终产品的理解能力。“对于想要有效利用大模型的人来说,掌握大量的编程能力并不是必需的。更重要的是能够将自己的思维方式与模型同步,确保模型理解并执行自己的想法。”曾国洋说道,“让模型理解你的想法是一种独特的体

42、验,它要求用户对模型的运作方式有一定的了解,并且能够清晰地表达自己的概念和目标。”对于其他公司来说,大模型技术会以不同形式的工具、功能出现。面壁智能的目标是实现通用人工智能,团队为此有一个清晰的路线图,包括在文本模态上要达到的效果、未来向多模态和具身智能的转变等规划。2024 年,面壁智能将继续专注于模型的研发和优化。而面壁智能的选择能否助其顺利发展、实现自己的 AGI 理想,还需要时间来回答。扫码分享文章-20-大模型领航者AIGC 实践案例集锦这个离开大厂去 AI 创业的互联网大佬,带着他的“Killer Agent”来了“2020 年是一个不同寻常的年份。人们因新冠不得不停下来的时候,时

43、任京东集团副总裁、技术委员会主席、京东商城技术负责人的黎科峰博士却选择了离职创业。此时的黎科峰博士,已经在互联网行业摸爬滚打了十余年。他曾在三星亲历了公司第一代智能手机诞生;在平安集团作为执委、平安金融科技 CTO 推动平安集团的用户和数据体系建设,以及金融科技云平台建设;在百度,作为原百度云计算创始成员推动百度云 OS 初创,也曾担任过手机百度总经理,带领实现日活跃用户 1 亿的突破。意料之外,情理之中。在经历了 PC 和移动互联网两次浪潮后,黎科峰博士明显感到 To C 的流量增长已经放缓,红利期基本结束,大厂们也开始在 To B 领域布局。To B 就是黎科峰博士给自己选的赛道,而这次他

44、恰好赶上了大模型这波浪潮。出 品|InfoQ 大模型领航者 主 持|霍太稳,极客邦科技创始人兼 CEO嘉 宾|黎科峰博士,数势科技创始人兼 CEO作 者|褚杏娟,InfoQ 编辑编 辑|蔡芳芳,InfoQ 主编-21-对话先行者洞见新未来黎科峰博士一直说自己是“To B 新人”,但他创业 3 年后就让公司营收达到数亿元的成绩,已经无法让人用“新人”来定义他。C 端大佬,凭何入局 B 端“创业,始终是一条不同寻常的道路。别人已经走过并走通了的路,没有必要再去重复。”中国的 To B 公司大致有两种。一种是专注项目制和定制化服务的公司,根据客户提出的具体需求逐一开发。但问题是客户的需求是零散和片段

45、化的,他们可能并不清楚自己的数字化是什么样的。另一种则是“Copy to China”模式,商业模型、产品理念,甚至 PMF 理论很多是直接从美国照搬过来。但中国的市场环境和美国不同,简单复制很难成功。企业内部通常分为利润中心和成本中心,其中成本中心包括了行政、人力资源、财务和 IT 部门等。国内许多 To B 软件实际上是围绕成本中心设计的,比如 OA 系统等,但这些软件的付费能力相对较弱,转化为直接业务价值的路径较长。正如黎科峰博士所说,“企业高层或数字化负责人很难有底气地说,企业增长的 20%-30%是他们带来的。”表面上看,国内数字化认知不足、大家付费意愿不强等都是 To B 企业面临

46、的普遍挑战。但长期从事 To C 产品的经验告诉黎科峰博士,问题的关键是从业者没有解决真正的痛点、真正帮助用户创造价值,To C 还是 To B 反而并不重要。根据黎科峰博士观察,国内数千万的企业正在从过去依靠规模增长的模式,转变为追求内在能力提升和经营效率提高的模式。企业意识到,仅凭直觉和经验已经难以持续增长,开始寻求技术的帮助。但不同行业的软件使用者技术水平存在差异。电商、金融科技等互联网企业数字化水平较高,员工可以熟练使用复杂软件,但其他行业的企业就难以有效使用,致使其软件使用成本很高。因此,在黎科峰博士看来,To B 行业要真正发展,首先需要建立共识,即让市场参与者普遍认同软件或解决方

47、案的价值,否则就得花大量的时间和-22-大模型领航者AIGC 实践案例集锦精力说服和教育市场。其次,产品必须足够简单易用,能轻松融入业务团队的日常工作,并且无需复杂培训。大模型产品完美符合上述条件。不用多说,大家已经对大模型的价值和潜力有了共识,这是一个非常重要的优势。另外,大模型降低了数据的使用门槛,让 AI 和大数据不再只属于技术圈,而是广泛的普通大众。如今,虽然不是每家企业都开始实际应用大模型,但至少都在研究、了解和学习。走得远的企业已经开始尝试将大模型技术应用于实际业务中,甚至有些已经签了商业合同。“这种对大模型技术的高度认可和期待,甚至超过了当年的云计算。”黎科峰博士表示。传统的 T

48、o B 软件十分复杂,大多数功能用户并不需要,同时很久都不做本质上的改进,长期保持最初的界面和功能。而通过基于大模型的软件,用户通过简单表达就可以实时、精确地找到所需信息,软件还能不断适应和学习,越来越贴合用户的个性化需求和使用习惯。“从这个角度来看,大模型技术会颠覆现有的 To B 软件,甚至让很多 To B 软件过时。”黎科峰博士补充道,“当然,现有的 ToB 软件开发商也会努力追赶,但他们可能会因为历史包袱而受限。”另外,大模型产品还将改变 To B 业务的决策关系。黎科峰博士表示,国内软件的使用者和决策者往往不是一线员工,而是不使用软件的管理层。大模型产品则让每个员工都能通过使用工具产

49、生价值,这样决策链将不再只是老板,还有真正使用软件的员工,员工对软件效率提升的需求会影响决策者。如何实现大模型价值落地?“现在的大模型就像一个全科研究生,而 Agent 是帮助它成为某个特定业务领域专家的实现方式。”在明确了大模型对于 To B 的影响后,该如何应用大模型呢?困扰很多人的首先是如何选择大模型。根据数势科技的基准测试,国内大模型产品之间的差距并不显著,与国际领先的模型,如 GPT-4 等比较,算力、准确度等方面确实存在较为明显的差距。但对于如何应对和看待国内外大模型的发展差异,黎科峰博士认为,“核心是我们是否需要像-23-对话先行者洞见新未来OpenAI 那样投入巨额资金(数百亿

50、)来发展大模型技术。”OpenAI 开始不计商业成果,致力于推动通用人工智能(AGI),后来也得到了美元基金支持,能够获得的资金是中国企业的很多倍。中国的大模型厂商在资源有限的情况下,需要从一开始就明确自己的方向,思考如何创造价值并实现商业化回报。这涉及到选择哪些方向进行投资,以确保资金的使用更加高效和有针对性。另外,大型企业和创业公司开发的大模型产品方向也各有千秋。大企业开发大模型有明显的资源优势,比如丰富的计算资源和大量数据积累,然而也面临着诸如如何将大模型整合到现有业务和产品线等较重的商业化包袱。而创业公司没有历史包袱,通常从大模型原生视角出发,不受以往业务约束,更自由地探索和创新,因此

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 研究报告 > 其他

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服