收藏 分销(赏)

面向知识库协同演进的知识通信.pdf

上传人:自信****多点 文档编号:3004655 上传时间:2024-06-12 格式:PDF 页数:7 大小:3.88MB
下载 相关 举报
面向知识库协同演进的知识通信.pdf_第1页
第1页 / 共7页
面向知识库协同演进的知识通信.pdf_第2页
第2页 / 共7页
面向知识库协同演进的知识通信.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第48 卷总第52 2 期面向知识库协同演进的知识通信杨曼暖13,刘航,高大化13,石光明12(1.西安电子科技大学人工智能学院,陕西西安7 10 0 7 1;2.鹏城实验室,广东深圳518 0 55;3.琶洲实验室(黄埔),广东广州510 555)【摘要】面向语义通信中模型化知识库更新的需求,针对庞大而精确的模型参数传输对通信资源和信道条件要求过高的问题,对知识通信问题进行建模和简化,并以此提出一种基于载体数据的知识库协同演进方法。该方法以数据为知识载体,通过基于载体数据采样、传输和学习分别实现知识的表述、传输与更新,并以最小化知识差异为目标,使用遗传算法优化载体数据的采样。与基于模型传输方

2、法的对比实验结果表明,本方法只用十分之一的传输量就能实现更低的知识差异,且具有抗噪声能力强、可兼容原有知识和异构知识库的优势。【关键词】语义通信;知识库;知识更新;知识通信;遗传算法doi:10.3969/j.issn.1006-1010.20231224-0001中图分类号:TN92文献标志码:A文章编号:10 0 6-10 10(2 0 2 4)0 2-0 0 2 7-0 7引用格式:杨曼曦,刘航,高大化,等。面向知识库协同演进的知识通信.移动通信,2 0 2 4,48(2):2 7-33.YANG Minxi,LIU Hang,GAO Dahua,et al.Knowledge Comm

3、unication for Collaborative Evolution of Knowledge BasesJ.MobileCommunications,2024,48(2):27-33.OSID:扫描二维码与作者交流Knowledge Communication for Collaborative Evolution of Knowledge BasesYANG Minxi,LIU Hang,GAO Dahua,SHI Guangming,2(1.School of Artificial Intelligence,Xidian University,Xian 710071,China;2

4、.PengCheng Laboratory,Shenzhen 518055,China;3.Pazhou Lab,Huangpu,Guangzhou 510555,China)0引言AbstractKeywords收稿日期:2 0 2 3-12-2 4*基金项目:国家重点研发计划项目课题“干涉图像的合成与复原技术研究”(2 0 19YFA0706604);国家自然科学基金重大项目课题“语义信息弹性编译码理论与方法”(6 2 2 9348 3);琶洲实验室(黄埔)资助项目“3D沉浸式多人视频会议系统”(2 0 2 2 K0904);国家自然科学基金青年项目“基于语义的图像编码方法研究”(6 2

5、10 1398);广州市科技计划基础研究计划项目“广州市场景理解与智能交互重点实验室”(2 0 2 2 0 10 0 0 0 0 1)*通信作者In response to the demand for updating the model-based knowledge bases in semantic communication,and addressing thechallenge of high requirements for communication resources and channel conditions posed by the transmission of ex

6、tensiveand precise model parameters,this study models and simplifies the issue of knowledge communication.Subsequently,amethodology for collaborative evolution of knowledge bases is proposed based on the carrier data.This approach utilizes dataas the carrier for knowledge and achieves the knowledge

7、representation,transmission,and update through carrier data-basedsampling,transmission,and learning,respectively.The method aims to minimize knowledge differences and employs a geneticalgorithm to optimize carrier data sampling.Comparative experiments with the model-based transmission methods reveal

8、that this approach achieves lower knowledge differences with only one-tenth of the transmission volume.It demonstrates theadvantages of strong anti-noise ability and the compatibility with original knowledge and heterogeneous knowledge bases.semantic communication;knowledge base;knowledge update;kno

9、wledge communication;genetic algorithm移动通信2024年2 月第2 期27随着无线频谱资源日益紧缺 和编码效率逼近极限2 ,使用人工智能技术编码信号关键内容从而节省传输资源的语义通信3-6 ,成为通信技术的一个重要发展方向而备受关注。不同于保真传输信号的语法通信,语义通信追求信号中的含义,即语义的保真7 。语义通信能够有针对性地提取、传输并恢复语义的关键在于其中通信节点配有知识库,具备一定的智能6 。知识库记载了语义范围、信号分布和通信环境等关键信息,使得语义通信展现出比传统通信更好的编码效率和抗噪声能力18-9。第48 卷“语义通信”专题1总第52 2

10、期现有语义通信基本上都是基于深度网络模型一体化实现编解码器和知识库。一类语义通信致力于通过端到端训练深度网络以最小化重构误差,实现信源信道联合编码(JSCC,Jo i n t So u r c e-Ch a n n e l Co d i n g)。Xi e 等8 提出了一种基于Transformerl10l的语义通信系统DeepSC,用于文本传输。在DeepSC框架的基础上,Weng等I提出了端到端语义通信系统DeepSC-S,将语义通信从文本模态扩展到语音模态。对于图像,Yang等9提出了一种基于SwinTransformer121的端到端语义通信系统。另一类语义通信方法利用生成模型作为解码

11、器,可以根据文本等更易于人类理解的语义表征形式生成接收信号。Li等【13 提出了一种基于对抗生成网络(GAN,G e n e r a t i v eAdversarial Network)14 的语义编码方法,而Huang 等15则提出了一种使用草图表示图像的编码方法。Grassucci等16 进一步采用参数更多、采样次数更多的扩散模型(D M,D i f f u s i o n M o d e l)17 作为解码器,提出了一种基于分割图的生成式语义通信。无论是深度JSCC从Transformer到SwinTransformer,还是生成式语义通信从GAN到DM,为了取得更好的编解码效果,采用

12、的模型规模都越来越大,即知识库的规模越来越大。事实上,没有一个模型能够在所有条件下都达到最优18 。而通信中信号分布、通信环境等条件难免随着时间发生改变。为了避免通信性能下降,就需要对知识库进行更新。要将更新发布到通信网络中的每个节点,则必涉及通过信道传输知识的过程。在管理学中,知识传输的过程也称为知识通信19.2 0 1。对于现有模型化的知识库而言,最直接的知识通信手段,便是传输并覆盖模型权重参数。对于现有动以GB记的模型参数量而言,传输人类甲知识库:模型机器甲的代价是非常高昂的。此外,深度学习模型的权重参数是非常精确的,微小的误差就可能导致严重的性能下降,这对传输时的误码率提出了很高的要求

13、。因此,需要设计一种更高效的知识通信方式,以提高语义通信在可变环境中实用性。众所周知,人类的知识库是大脑。人与人之间的知识通信显然不是通过大脑的抽取与移植实现的,而是先将知识表述为知识载体数据,再通过学习这些数据实现知识更新的(如图1上所示)。机器节点间的知识通信也可以采用相同的方式,如图1下所示。本文首先立足于通信中代价失真权衡的通用问题,通过定义知识传输代价和知识库差异,对知识通信问题进行了数学表述。将以数据作为载体的知识通信方法建模为双层优化问题,并通过放松条件对其进行了简化,降低了求解的难度。本文接着提出一种基于知识表述、传输与学习的知识库协同演进方法。其流程为:首先,由发送方学习新数

14、据更新信源知识库;接着,在遗传算法的指导下生成知识载体数据,实现知识表述;然后,发送方将知识表述数据通过信道发送给接收方;最后,接收方学习这些数据,并更新信宿知识库。其中,遗传算法会以信宿知识库更新的收敛周期最小化为目标,优化知识表述。相比于传输权重参数的方式,基于知识表述、传输与学习的知识通信方式有四个优势:(1)传输量较小。新知识与原有知识往往存在关联。在原有知识的基础上,可以用更少的数据更快地学习新知识。在机器学习领域,该过程被称为基于微调的迁移学习并且有非常广泛的应用2 1;(2)抗噪声能力强。相比于权重参数上的噪声,知识库:大脑信道传输知识载体数据知识表述知识载体数据知识表述读取覆盖

15、信道传输学习更新人机交互信道传输学习更新信道传输读取覆盖图1人类与机器的知识通信方式示意图知识库:大脑知识库:模型人类乙机器乙28移动通信2024年2 月第2 期第48 卷总第52 2 期杨曦,刘航,高大化,等:面向知识库协同演进的知识通信深度模型对信号上的噪声容忍度更强。给信号添加噪声也是数据增广的常用方法,有助于提升模型的泛化能力;(3)可兼容原有知识。通过在原有参数的基础上学习新数据,可以避免因覆盖而丢失原有知识;(4)可兼容异构知识库。对于模型架构不同,或人类等无法直接读取权重参数的异构智能节点,知识载体数据可作为异构知识库间的桥梁本文主要的研究工作如下。1)以语义通信中智能节点的知识

16、库更新需求为切人点,分别对以权重和以数据作为载体的知识通信方法进行建模。并针对后者求解计算量过大的问题,通过放松条件对其进行简化,降低求解的计算量。2)基于遗传算法提出一种基于知识表述、传输与学习的知识库协同演进方法。3)采用仿真证明所提方法在传输效率、抗噪声能力、知识兼容性等方面优于传输并覆盖模型权重参数的朴素方法。1知识通信问题通信的一个根本问题是如何在保证通信代价在一定限度的情况下,使得失真最小化,即式(1):min D,s.t.CC*其中D为期望失真,C为代价,C*为代价限度。不同通信的代价和失真度量有所不同。对于语法层面传统通信而言,代价为限制了传输速率的带宽与功率,失真度量是符号级

17、失真,例如最小均方误差(MSE,M e a n Sq u a r eError)。语义通信的代价为码率,失真度量是语义级失真,例如结构相似性(SSIM,St r u c t u r a l SI M i l a r i t y)。知识通信的代价为知识载体(包括模型权重参数和知识载体数据)的传输代价。知识通信的失真度量需要反应两个知识库的差异。本文使用期望编解码误差度量知识库之间的差异,即式(2):D(KT,KR)=Ex-xfa(T,XR)其中,K-(Er,D)和KR=(ER,DR分别为包含编解码器的信源和信宿知识库,E表示数学期望,xX为测试样本,fa(,)为数据失真度量,=D(E(x)和=D

18、r(ER(x)分别为信源和信宿编解码结果。以权重为载体的知识通信的关键步骤是通过信道传输权重,以加性高斯白噪声(AWGN,A d d ic tiv e W h iteGaussianNoise)信道为例,则有式(3):KR=hK+n其中,h为信道频率响应,n为高斯噪声。以数据为载体的知识通信,主要包含知识表述、数据传输和学习更新3个部分。知识表述为根据信源知识库生成知识载体数据的过程,如式(4):S,(K.)=Y其中,S。为包含可优化参数的采样函数,Y=(yi为知识载体数据集。数据传输过程为,如式(5):y=h.y,+n其中,JEY为接收数据。学习更新为信源知识库的优化过程,如式(6):min

19、 Eyerur,Ja(Kr(y),y)KR其中,Y为信宿知识库原有知识的表述。3部分构成以为对象的双层优化问题,如式(7):min Exxfa(Kr(x),Kr(x)S.t.c(S,(KT)C*KR=arg min Eyerur,fa(Kr(),y)KRY=h.S.(K.)+n其中,C()为数据传输的代价。本文对该双重优化问题做出两点简化:其一,是将限代价问题改为定代价问题,即在通信中始终使用相同的资源进行传输。由此一来,S。不改变采样数据的规模,而只改变其分布。此时其作用为:根据信源知识库,选择更适合信宿知识库学习的知识载体数据。(1)其二,是简化优化目标函数。由于知识库的评估应当在当前应用

20、范围内展开。所以,融合了新知识和原有知识表述的数据集服从知识库差异评估数据分布,即zX,则不妨放松x=z。于是,根据度量函数的三角不等式有式(8):Ex-xfa(K,(x),K,(x)D,其中D为误差限度。当分布外数据超过数量限度时IQNg,则知识库将根据这部分数据进行更新学习,如式(10):min Eyeour,fa(K(y),y)K当完成更新后,该知识库将作为知识通信的信源,将知识传递给需要更新的知识库,实现信源信宿协同演进。2.2信源知识库知识表述根据公式所述简化知识通信问题,传输代价是一定的。采样函数S。不改变采样数据的规模,而只改变其分布。此时S。致力于选择更适合信宿知识库学习的知识

21、载体数据。由于公式所述问题的外层目标函数不可导,本方法采用遗传30新数据(1)学习更新30算法(GA,Genetic Algorithm)2 对其展开优化。遗传算法是一种模仿自然选择和进化的搜索和优化算法。遗传算法的优点是能够在全局范围内寻找最优解,不容易陷入局部最优,而且不需要目标函数的导数信息。它的基本流程如算法1:算法1遗传算法给定终止条件,适应度评估,种群数,染色体长度,最大代数,交叉概率,变异概率;开始1)初始化种群:随机生成一组候选解,称为初始种群;2)评估:评估种群中个体的适应度;3)w h i l e(未达到最大进化代数且不满足其他终止条件)do4)选择:根据适应度,有一定概率

22、地从种群中选择个体,作为下一代的父代;5)交叉:以一定概率,将两个父代个体的染色体部分互换,产生两个新的个体,称为子代;6)变异:以一定概率,随机改变某个个体的染色体上的个或多个基因,产生新的个体;7)更新:用子代个体替换父代个体,形成新的种群8)评估新一代种群中个体的适应度(10)9)endwhile10)输出最佳解结束本方法以信宿知识库更新的收敛周期最小化为目标,求解最合适的语义类别重要性分布。输出的最优解会先通过一个归一化指数函数(softmax function),将重要性转化为各语义类别的概率分布。一个服从该概率分布的多项式分布将进行多次采样,得到若干个类别的独热信源知识库+信源信源

23、编码器解码器q(z/x)P。(x I z)信宿知识库知识载体数据(2)知识表述30(3)信宿信宿学习更新编码器解码器30qa(z/x)LPB(X/2)知识表述优化知识载体数据高斯噪声多次采样条件多次采样高斯分布30移动通信2024年2 月第2 期信宿学习更新信源30解码器Po(x1z)解作为概率参数多项式分布图2 知识库协同演进方法流程图信宿编码器解码器qa(z/x)PB(x1z)遗传优化器作为目标最小收敛周期数第48 卷总第52 2 期杨曦,刘航,高大化,等:面向知识库协同演进的知识通信编码(one-hotcode)。独热编码将作为条件控制信源编码器生成对应类别的数据作为知识载体。2.3信宿

24、知识库学习更新信宿知识库将根据从信道上接收到的知识载体数据展开学习更新。学习更新的优化问题如公式所示。在S。的优化过程中,信宿知识库学习更新的收敛周期将会作为优化目标提供给遗传优化器。在遗传算法的框架下反复迭代执行阶段(2)和阶段(3)直到达到终止条件,便完成了对S。的优化,即完成了知识库协同演进的训练阶段。随后,只需要依次执行3个步骤即可完成测试或预测。其中卷积层的参数分别表示卷积核大小、输出通道数、步长和填充数,例如“33卷积,6 4,2,1”表示一个卷积核大小为33、输出通道数为6 4、步长为2、填充数为1的二维卷积操作。批量规范化的参数表示通道数。线性层的参数表示输出维度。像素重组的参

25、数表示上采样系数。3仿真分析本节基于图像模态,通过与以模型权重参数为载体的知识通信方法展开仿真对比,验证所提方法的有效性。3.1实验设置数据处理。本文使用了德国交通标志(GTSRB,GermanTrafic Sign Recognition Benchmark)数据集中的9个分类,这些分类中每个都包含超过10 0 0 张单个图像。信源知识库包含其中5个类别,信宿知识库包含另外4个类别。信源和信宿知识库没有重叠。对于数据集中的黑暗道路场景图片,本文采用了随机亮度算法,其中亮度系数范围在0.8,1.2 之间,特征提取模块以增强数据。对于尺寸小于96,96 的图片,本文首先保持宽高比例,将其放大至较

26、短边大于96 像素,然后进行随机裁剪,生成96,96 的图片。在将这些图片输入到网络之前,本文进行了归一化处理。这样的数据预处理流程有助于确保训练数据的多样性和质量,以提高模型的性能和泛化能力。模型结构。本文采用变分自编码器(VAE,V a r ia t io n a lAuto-Encoder)【2 3 作为知识库的实现,其结构如图3所示。整体而言,该网络包括特征提取模块、重参数化模块、条件控制模块和信号生成模块:特征提取模块由6 个卷积块组成,第一个采用11卷积,其余均使用33卷积。其中使用了批量规范化(batchnormalization)进行归一化,且归一化维度范围与输出维度一致。激活

27、函数采用带泄露线性整流(Leaky ReLU,LeakyRectifiedLinearUnit),其泄露系数设置为0.1。部分卷积块使用了残差连接,以减少网络退化的影响。重参数化模块首先分别使用两个6 4维的线性层估计均值和方差。随后使用重参数化技巧:zFu;+o,gi,eN(0,D)。条件控制模块将z,和类别条件对应的独热编码进行拼接,送人线性层。在训练时,z;由特征提取模块和重参数化模块提供;在采样时,z,为高斯噪声,zN(0,I)。信号生成模块由1个自注意力和5个带有上采样功能的卷积块组成。针对输人特征的自注意力计算,zi-Softmax(zTz)zi。上采样通过转置卷积(transpo

28、sedconvolution)或像素重组(pixelshuffle)实现。训练细节。训练分为内层的VAE优化和外层的遗传算法优化。VAE的损失函数包含权重相等的2 部分:一部分为3X3卷积,6 4,2,1重参数化模块3X3卷积,12 8,2,1输入图像编码器训练时解码器拼接条件3X3卷积,3,1,1输出图像信号生成模块3X3卷积,12,1,13X3卷积,3,1,1带泄露线性整流像素重组,233卷积,12,1,1像素重组,23X3卷积,32,1,13X3卷积,12 8,1,1像素重组,2图3实实验采用的变分自编码器结构3X3卷积,12 8,1,1带泄露线性整流像素重组,23X3卷积,2 56,1

29、,1像素重组,2采祥时带泄露线性整流批量规范化,12 8128,2.12X2转置卷积,自注意力线性层,2 56条件控制模块移动通信2024年2 月第2 期31第48 卷“语义通信”专题1总第52 2 期图片本身的均方误差损失,即生成图片与原始图片的差绝对值的平方均值;另一部分为网络估计的均值与方差与标准正态分布的Kullback-Leibler散度。VAE训练时数据批大小设置为16,优化器采用学习率为10 的Adam优化器2 4,beta设置为0.9。遗传算法的最大进化代数为16,种群规模为10,个体基因数为9,每一代参与交叉的父代数量为4,当代保留到下一代的父代数量为2,交叉方式为均勾交叉(

30、u n i f o r m c r o s s o v e r),变异类型为混乱突变(scramblemutation),突变改变的基因数量为2。运行环境。仿真硬件平台为搭载IntelI910920X3.5GHz和NVIDIARTX3090的计算机。软件环境为ubuntu18.04和CUDA11.4。编程语言为Python3.10.6。遗传算法的实现借助了开源包PyGAD25,其余部分主要借助了深度学习开源框架PyTorch2。对比对象。实验将所提方法与以模型权重参数为载体的知识通信方法进行对比。模型权重采用XZ无损压缩算法。压缩前后的模型大小如表1所示。评估标准。实验使用式所述知识差异评估方

31、法,其中fa为SSIM。表1VAE使用XZ压缩前后的模型大小编码器解码器原始大小/MB4.46压缩大小/MB4.063.2知识载体数据量的影响本小节探究知识载体数据量对知识传输效果的影响。信道信噪比设置为10 dB。所有图像采用压缩率相同的联合图像专家组(JPEG,Joint Photographic Experts Group)格式进行压缩。结果如表2 所示。其中,信源知识表示信源知识库包含的5个类别,也就是知识通信中信源发送给信宿的知识。信宿知识表示信宿知识库原本包含的4个类别。所有知识表示信源和信宿知识的并集,共包含9个类别。随着载体数据量的增大,信源知识和信宿知识的知识差异都在减小。其

32、中当数据量超过1.6 0 MB后,数据量的增加对性能的提升作用不明显。这说明本方法只需要1.60MB左右的数据便足够,不足模型大小的三分之一。表2 使用权重载体与不同规模的数据载体的知识通信方法对比结果(加粗数据为该类知识的最佳结果)知识载体权重传输量/MBI6.26图片张数1信源知识SSIM信宿知识SSIM所有知识SSIM注:(I)表示该项指标越高(低)越好32移动通信2024年2 月第2 期表明传输载体数据比传输权重的代价更小。以模型权重作为载体的知识通信在信源知识上的略优于数据载体方法的最好结果。这是因为采样得到的知识载体数据与真实数据的分布之间仍然有差异(可参见图2中的新数据和知识载体

33、数据间的差异)。但以模型权重作为载体的知识通信在信宿知识和所有知识方面明显逊色与数据载体方法。这是因为传输模型权重会覆盖原有知识,而传输数据则可以兼容原有知识(如图4所示)。3070(a)信源知识库的生(b)更新前信源知识成样本库的生成样本图4知识库中包含样本示例3.3通信环境的影响本小节探究信噪比对知识通信效果的影响。载体图片张数设定为2 0 0,传输量约为2.14MB。结果如图5所示。随着信噪比的增大,传输权重的方法性能逐渐提升,并在30 dB达到稳定。这说明模型权重对噪声非常敏感。总计传输知识载体数据的方法的性能保持稳定,且始终优于2.376.832.206.260.531.075010

34、00.7840.7520.6580.8150.7490.78030(c)更新后信源知识库的生成样本传输权重的方法。这并非意味着数据不受噪声影响,而是VAE由于高斯假设,对数据中高斯噪声的容忍度较高。VAE生成的图像都相对模糊,仿佛加了高斯滤波一样(如图4所示),也印证了这一点。0.90.80.70.6330.30.2M0.100数据1.602.141502000.7620.7720.8220.8280.7890.797MV传输模型权重510图5信噪比对知识通信的影响2.673.212503000.7680.7720.8280.8280.7940.797传输知识载体数据1520信噪比(SNR)/

35、dB3.744.283504000.7740.7820.8330.8300.8000.803250.7780.8250.799304.814500.7800.8300.802355.355000.7760.8250.79840第48 卷总第52 2 期杨曼曦,刘航,高大化,等:面向知识库协同演进的知识通信4结束语本研究以语义通信中的模型化知识库更新为切人点,受到人类知识传播过程的启发,提出了一种以数据为载体的知识库协同演进方法。本研究首先将对知识通信问题建模为双层优化问题,并对其进行了简化。基于此,提出一种基于知识表述、传输与学习的知识库协同演进方法,并使用遗传算法实现优化。相较传输模型参数的

36、方法,本研究在传输量、抗噪声、知识兼容性等方面取得了显著优势。然而变分自编码器的表征能力不足,导致采样的知识载体数据分布与原始分布始终有差异。未来工作将针对扩散模型等表征能力更强、规模更大知识库,研究低代价、快收敛的协同更新方法。参考文献:1 Vora L J.Evolution of mobile generation technology:1G to 5G andreview of upcoming wireless technology 5GJ.International journal of modern trends in engineering and research,2015,

37、2(10):281-290.2 Arikan E.Channel polarization:A method for constructing capacity-achieving codes for symmetric binary-input memoryless channels.IEEE Transactions on information Theory,2009,55(7):3051-3073.3 Shi G,Xiao Y,Li Y,et al.From Semantic Communication toSemantic-Aware Networking:Model,Archite

38、cture,and OpenProblemsJ.IEEE Communications Magazine,2021,59(8):44-50.4石光明,李莹玉,谢雪梅.语义通讯一模式识别与人工智能,2 0 18,31(1):9.5 Shi G,Gao D,Song X,et al.A new communication paradigm:from bit accuracy to semantic fidelityJ/OL.arXiv preprintarXiv:2101.12649,2021.6Qin Z,Tao X,Lu J,et al.Semantic communications:Prin

39、ciples andchallengesJ/OL.arXiv preprint arXiv:2201.01389,2021.7Weaver W.Recent contributions to the mathematical theory ofcommunicationJ.ETC:a review of general semantics,1953,10(4):261-281.8 Xie H,Qin Z,Li G Y,et al.,Deep learning enabled semanticcommunication systemsJ.IEEE Transactions on Signal P

40、rocessing,2021,69:2663-2675.9Yang K,Wang S,Dai J,et al.WITT:A wireless image transmissiontransformer for semantic communicationsC.2023 IEEEInternational Conference on Acoustics,Speech and SignalProcessing(ICASSP2023),2023:1-5.10I Vaswani A,Shazeer N,Parmar N,et al.Attention is all youneedJ.Advances

41、in neural information processing systems,2017,30:5998-6008.11 Weng Z,Qin Z,Li G Y.Semantic communications for speechsignalsCj.ICC 2021-IEEE International Conference onCommunications,2021:1-6.12 Liu Z,Lin Y,Cao Y,et al.Swin transformer:Hierarchicalvision transformer using shifted windowsC.Proceedings

42、 ofthe IEEE/CVF international conference on computer vision,2021:10012-10022.13 Li J,Jia C,Zhang X,et al.Cross Modal Compression:Towards Human-comprehensible Semantic CompressionC.Proceedings of the 29thACM International Conference on Multimedia,2021:4230-4238.14 Goodfellow I,Pouget-Abadie J,Mirza M

43、,et al.Generativeadversarial netsJ.Advances in neural information processingsystems,2014,27:2672-2680.15 Huang D,Tao X,Gao F,et al.Deep learning-based image semanticcoding for semantic communicationsCJ.2021 IEEE GlobalCommunications Conference(GLOBECOM),2021:1-6.16Grassucci E,Barbarossa S,Comminiell

44、o D.Generative SemanticCommunication:Diffusion Models Beyond Bit RecoveryJ/OL.arXiv preprint arXiv:2306.04321,2023.17Yang L,Zhang Z,Hong S.Diffusion Models:A ComprehensiveSurvey of Methods and Applications,2022:arXiv:2209.00796.18Wolpert D H,Macready W G.No free lunch theorems foroptimizationJ.IEEE

45、transactions on evolutionary computation,1997,1(1):67-82.19Liyanage C,Elhag T,Ballal T,et al.Knowledge communication and translation-a knowledge transfer modelJj.Journal of KnowledgeManagement,2009,13(3):118-131.20Castaneda D I,Toulson P.Is it possible to share tacit knowledgeusing information and c

46、ommunication technology tools?J.GlobalKnowledge,Memory and Communication,2021,70(8/9):673-683.21 Lampert C H,Nickisch H,Harmeling S.Learning to detect unseenobject classes by between-class attribute transferC.2009 IEEEConference on Computer Vision and Pattern Recognition,2009:951-958.22 Mitchell M.A

47、n introduction to genetic algorithmsM.MITpress,1998.23 Cinelli L P,Marins M A,Da Silva E A B,et al.Variational methodsfor machine learning with applications to deep networksM.Springer,2021.24Kingma D P,Ba J.Adam:A method for stochastic optimizationJ/OLj.arXiv preprint arXiv:1412.6980,2014.25Gad A F.

48、Pygad:An intuitive genetic algorithm python libraryJ.Multimedia Tools and Applications,2023,1:1-14.26Paszke A,Gross S,Massa F,et al.Pytorch:An imperative style,high-performance deep learning libraryJ.Advances in neural一智能时代的产物1.information processing systems,2019,32:8026-8037.杨曼曦(orcid.org/0000-0002-0951-9672):西安电子科技大学博士研究生在读,主要研究方向为表征学习、计算机视觉、语义通信等。刘航:西安电子科技大学硕士研究生在读,主要研究方向为计算机视觉、语义通信等高大化(orcid.0rg/0000-0002-0900-0483):教授,博士,现任职于西安电子科技大学,主要研究方向为智能信息处理、智能感知等。石光明:教授,博士,现任职于西安电子科技大学,担任鹏城实验室副主任,长江学者特聘教授,IEEEFellow,I ET Fe llo W,主要研究方向为人工智能、语义通信等。33作者简介移动通信2024年2 月第2 期

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服