1、8ELECTRONIC ENGINEERING&PRODUCT WORLD 2023.5Lectures 电子产品世界$讲座从隐空间认识CLIP多模态模型Understanding and manipulating the latent spaces of CLIP高焕堂(铭传大学、长庚大学教授)1 前言AIGC 可生成的内容形式包含文本(文句)、图像、音频和视频。它能将文本中的语言符号信息或知识,与视觉中可视化的信息(或知识)建立出对应的关联。两者互相加强,形成图文并茂的景象,激发人脑更多想象,扩大人们的思维空间。其中,最基础的就是文本(Text)与图像(Image)之间的知识关联。本篇来介
2、绍文本与图像的关联,并以 CLIP 模型为例,深入介绍多模态 AIGC 模型的幕后架构,例如隐空间(Latent space)就是其中的关键性机制。2 简介CLIP模型在 2020 年,OpenAI 团队提出了 CLIP,它是典型的多模态(Multi-modal)机器学习模型。OpenAI 从互联网上找到大量的文本(Text)与图像(Image)的配对,可以用来训练 CLIP 模型,然后让 CLIP 进行其预测任务,即是输入 1 张图像,然后预测出哪一个文本与它是配对的。CLIP 的目标是透过大量图片及文字描述,建立两者间的对应关系。其做法是利用 ResNet50 等来萃取图像的特征,并映射到
3、隐空间(Latent space)。也就是将图像编码成为隐空间向量。同时,也利用 Transformer 萃取与图像相配对文句的特征,并将文句编码成为隐空间向量。最后经由模型训练来逐渐提高两个向量的相似度。换句话说,CLIP能将图像和文句映像到同一个隐空间,因此可以迅速计算图像与文句的相似度。CLIP 模型学习整个文句与其对应的图像之间的关系。当我们在整个文句上训练时,模型可以学到更多的潜在的东西,并在图像和文句之间找到一些规律。值得留意的是,在训练CLIP模型时,我们输入的是整个文句,而不是像猫、狗、汽车、电影等单一类别而已。3 CLIP的基本架构CLIP 的核心设计概念是,把各文句和图像映
4、射到隐空间里的一个点(以向量表示)。针对每一个文句和图像都会提取其特征,并映射到这个隐空间里的某一点。然后经由矩阵运算,来估计它们之间的相似度,如图 1。图1 CLIP的基本概念(来源:https:/ CLIP 模型的过程中,会不断调整各点的位置(在隐空间里),以表达出它们之间的相似度。CLIP在整合文句与图像两种模态上有突破性的表现。一旦训练完成之后,就可以对新图像进行预测了,亦即预测出一个文本与它是配对的。例如,输入 1 张新图像,经由图像编码器(如 ResNet50)来提取这张图象的特征,然后映射到隐空间里的一个新的点。然后经由矩阵运算,即可预测出它与我们所给的一些文句的相似度,就可以得
5、到预测值了。此外,CLIP也能输入描述文句来找到相对应的图像。 2023.5电子产品世界讲座L ectures 4 图解CLIP的空间对映兹以中药材的CLIP为例,例如有4张中药材的图像,以及其对应的文句,或单词(图 2)。图2 中药名字对应的图片这里的文本与图像之间的对应关联,可以是人们给予的,也可以是从互联网页的数据而得来的。那么CLIP 模型就来建立这些关联性。在前面已经说明了,CLIP 会利用 ResNet50 等模型来协助提取各图像的特征,并将各图像(随机)对映到隐空间(即数学上欧式空间)的点。同时,也使用Transformer 模型来帮助提取个文句的特征,并将各文本(随机)对映到隐
6、空间的点(图 3)。图3 将中药名字和图像对应到隐空间中这就是空间对映(Space mapping),意味着从可观察空间(即上图里的图像和文句空间)对映到隐空间。5 展开训练在进行训练的过程中逐渐地修正 CLIP 模型里的参数(如 weight 和 bias 值),也就是逐渐地调整隐空间里各点的位置(坐标),来呈现出这些点之间的相似性(Similarity)。例如,在隐空间里,我们可以让愈相似的点,会愈相互靠近(图 4)。图4 隐空间训练过程以上训练完成了。其智能表达于模型里的参数(如weight 和 bias)值里。虽然人们可以理解文本和图像的涵意,但并无法理解模型里的参数,以及所计算出的隐
7、空间向量的涵意,所以才称为隐藏性空间,或称黑箱(Block-box)。6 预测范例1:从图像找文本在刚才的训练过程中,CLIP 已经持续调整各笔数据(如文本和图像)的其隐空间里的位置(以隐空间向量表示),来表达其所蕴含的关联性。一旦训练完成了,就能进入预测或推理的阶段了。例如,拿来 1 张新图像输入给 CLIP,它就(要求ResNet50 等)来帮忙提取这新图像的特征,并依据其所训练出来的参数(即 weight 和 bias)值,而计算(对映)出这个新点在隐空间里的位置(图 5)。图5 计算新点在隐空间里的位置由于这张新图像的特征与左边第 3 张(由上而下)(下转第16页)16ELECTRON
8、IC ENGINEERING&PRODUCT WORLD 2023.5$电子产品世界Design设计应用&Application嵌入式设计测试结果运行测试程序,启动上行测试,上行测试结果如下图所示,上行速率测试 6 276 Mbyte/s,下行测试结果如下图所示,下行速率测试 6 620 Mbyte/s,满足数据实时传输要求。5 结束语本研究完成了毫米波基带数据的实时传输,本设计主要研究开发了,经过仿真和硬件验证了传输的正确性,确认了本研究的可行性。参考文献:1 袁行猛,徐兰天,李奥.5G毫米波基带数据传输的研究与实现J.电子产品世界.2021(4):68-72.2 何世文,黄永明,王海明,等
9、.毫米波无线通信发展趋势及技术挑战J.电信科学.2017(6):11-19.3 黄宇红,刘盛纲,杨光,等.5G高频系统关键技术及设计M.北京:人民邮电出版社.2018.4 3GPP TS 38.215:NR;Physical layer measurementsS.5 3GPP TS 38.214:NR;Physical layer procedures for dataS.逻辑仿真(部分)图11(上接第9页)图像特征很接近,也就意味着这两张图象很相似,所以在潜藏空间里两者会很靠近。如此,计算出这个新点与其他各点之相似度,然后挑出相似性最高的文本是:枸杞(图 6)。于是,就顺利完成从图像关连到
10、文本的任务了。图67 预测范例2:从文本找图像刚才的范例是:从图找文。CLIP 还可以提供:从文找图。例如,拿来一个新文句输入给 CLIP,它就(要求 Transformer 等)来帮忙提取这新文句的特征,并依据其所训练出来的参数(即 weight 和 bias)值,而计算(对映)出整潜藏空间里这个新点的位置。接着,计算出这点与其他各点之相似度,然后挑出相似性最高的图像(图 7)。图7由于 CLIP 幕后有 Transformer 预训练模型来帮忙,可以发现”宁夏枸杞”与”银川枸杞”两个文本很相似,就找出与”银川枸杞”相对应(即相似性高)图像了。8 结束语在互联网上,CLIP 可以找到非常大量的图像,以及描述这些图像的文字,而且涵盖各行各业,非常广泛,使得 CLIP 成为一项通用性极高的双模态 AIGC 模型。