ImageVerifierCode 换一换
格式:PDF , 页数:6 ,大小:2.12MB ,
资源ID:575113      下载积分:10 金币
验证码下载
登录下载
邮箱/手机:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/575113.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  
声明  |  会员权益     获赠5币     写作写作

1、填表:    下载求助     留言反馈    退款申请
2、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
3、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
4、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
5、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
6、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
7、本文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。

注意事项

本文(基于TT秩非凸优化的张量填充方法.pdf)为本站上传会员【自信****多点】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4008-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

基于TT秩非凸优化的张量填充方法.pdf

1、第43卷第3期2023年5月DOI:10.13954/ki.hdu.2023.03.012杭州电子科技大学学报(自然科学版)Journal of Hangzhou Dianzi University(Natural Sciences)Vol.43 No.3May2023基于TT秩非凸优化的张量填充方法杨云荷,凌晨(杭州电子科技大学理学院,浙江杭州310 0 18)摘要:提出一种基于张量火车(TensorTrain,T T)分解的低秩张量填充(Low Rank Tensor Completion,LRTC)模型。首先,采用张量Ket扩展(KetAugmentation,KA)技术将三阶张量扩展为

2、高阶张量,揭示数据张量中的块低秩性;然后,采用非凸函数逼近秩函数,更好地刻画了数据的低秩性。彩色图像恢复实验表明,提出的方法具有较高的峰值信噪比(PeakSignaltoNoiseRatio,PSNR)值,在10%40%的低采样率下,优势更为明显。关键词:张量填充;张量火车秩;非凸优化;Ket扩展;图像恢复中图分类号:0 2 2 1.2文献标志码:A文章编号:10 0 1-9146(2 0 2 3)0 3-0 0 8 3-0 60引 言现代社会面临的数据越来越复杂。由于众多不可抗拒的原因,获取的数据往往是不完整或被污染的,因此,利用不完整数据信息恢复或估计出完整数据非常有意义。现有研究表明,许

3、多现实数据大都呈低秩性。张量作为矩阵的高阶扩展,应用广泛,基于张量的恢复方法可以更好挖掘数据的内部结构。但与矩阵秩的定义不同,张量秩的定义与其分解方式有关,常见的张量秩有CP秩1、Tucker 秩2、管秩3等,各有优势,适用于不同应用场景。2 0 11年,Oseledets4提出了高阶张量TT分解,并基于该分解定义了高阶张量TT秩,在许多应用中更好揭示了数据的内在结构。基于上述特性,Yang等51提出了张量主成分分析模型,运用张量KA技术6 1将三阶张量转换为高阶张量,再用核范数对TT秩进行凸松弛。受文献5启发,本文结合KA技术和TT秩建立了一个非凸低秩张量填充(LowRankTensorCo

4、mpletion,LRTC)模型。由于求解秩函数是一个NP难问题,本文采用一个简单的凹函数替代秩函数,近似刻画张量数据的低秩性,并采用交替方向乘子法(AlternatingDirectionMultiplierMethod,ADMM)对其求解。1预备知识本文用,,.表示高阶张量,X,Y和x,y,.表示矩阵和向量。N阶实张量ER+*xI的第(iiz,in)个元素记为xiii。针对给定的N阶实张量=(xii)和=(yiin),其内积定 相应地,Frobenius 范数定义为x=xx)。用mN义为 0,ER且0 micm),优化问题如下:min入00;(X)+IX-YIXERmXi-1的最优解为X=

5、US(Z)VT,其中,o;(X)为X的第i大奇异值,Z=diag(oi(Y),2(Y),mi n(mn)(Y)S(Z)=diag(max(o;(Y)-;0),UZVT 为Y 的 SVD分解(i=1,min(m,n)。非凸优化问题如下:其中,g和于需满足:(1)g 为RR+上的连续可导的凹函数,且在0,)上单调递增;(2)f为RR+上一阶连续可导的光滑函数;(3)当 l X Il F时 f(X)00。由于函数g和均为非线性函数,对其目标函数 F(X)在X处进行线性化近似,可得:min(m,n)Xi+1=argminXmin(m,n)argminVg(o;(x);(X)+兰II X-(X*-Vf(

6、X)/)l i=1因为0 Vg(o1(x)Vg(a2(X)Vg(ammmm(Xx),由引理可知,式(1)有最优解X+1=USs(x)a(2)VT。其中,UZVT 为 X-Vf(X)/的 SVD 分解,Sa(,(xt)/(2)=diag(max(o(X*-Vf(x*)/)-Vg(:(x*)/,)(i=1,min(m,n)。2基于TT秩的LRTC模型本文提出了一种基于TT秩的LRTC模型,简称NTTC模型。2.1 NTTC 模型一般的低秩张量填充模型可表示为:minrank()s.t.Pa()=P(M)其中,MER1*xI为已观测到的不完整张量,2 为M中已观测到数据的指标集,P为线性算子,定义为

7、:在张量TT秩意义下,上述低秩张量填充模型(2)可转化为:P,(X)=P.(M)kN其中,:为加权系数,ER,m=I,n=I。众所周知,秩函数rank()的极小化是一个i=1min F(X)=XERXi=1Vg(o;(X)o(X)+f(X)+1),=1,-1首先,更新V+(k=1,2,N-1)。由于(,T)中的(=1,2,N一1)是可分离的,可根据如下模型同时更新,杨云荷,等:基于TT秩非凸优化的张量填充方法1.00.90.80.70.60.50.4(V=min C(X,(V,T)+1=min L(X,(V+,T)=I)850.050.10图1函数()的曲线图N-1minmknk)min&V,

8、(o:()i=1s.t.Pa(x)=P.(M)N-1minm.k),(o.(a)+x-)0.15X0.200.250.30(3)(4)86整理式(6),可得:式中,f(Vk.灯)=argminki=1式中,(o()=/(o,()+),()=一(+T/)。得到问题(8)的显式解,(9)然后,更新什i+1=argmin式(10)的显式解为:N-1k=1iii2iMii2i最后,更新T+1和(k=1,2,N-1)。T+l=T+3(+1-ytl)(gtl=p%,(p 1)2.3收敛性分析由于本文模型求解的主要框架与文献12 中的算法类似,故参照文献14算法的收敛性证明得到如下定理。定理设(,(,T)为

9、式(5)迭代生成的序列,若(和(T)足lim(T+T i)=0 和非递减,则式(5)中选代序列的任一聚点均为模型(4)的稳定点。3数值实验及分析实验在6 4位操作系统的笔记本电脑(Intel(R)C o r e(T M)i5-10 2 10 U C PU 1.6 0 G H z 2.11G H z)上进行,使用MATLABR2018b进行仿真实验,选取规模大小均为2 56 2 56 3的4幅彩色图像,分别为帆船、蝴蝶、巨人、芭芭拉。分别采用本文提出的NTTC、基于t-SVD分解的TCTFL9方法、基于Tucker分解的STDCL101方法、HaLRTC1方法和IpST12方法进行彩色图像的恢复

10、。峰值信噪比(Peak Signal to NoiseRatio,PSNR)o值是衡量算法图像恢复质量的标准,VpsNR=10log1o(2 55*m n)/-M),其中M为原始张量,为恢复所得张量。+-l/Mtol(tol=10-4)作为停机准则,并设置最大迭代次数为2 50。其他参数设为:=10-(k=1,2,,N-1),=1.01,n=0.001,=1.05,并对不同的展开项赋予不同的权重,=r/r(k=1,2,,N1),rk=min(mk,n),r=张量KA技术可以更好地提升低秩逼近效果,故在程序执行前,使用KA技术对实验数据进行预处杭州电子科技大学学报(自然科学版)min(mknkm

11、ink,(o(r)+x-y+-y,Ti)=1mintmkngkmin一(+T,/)。进一步,采用线性化技术转化式(7),可得:min(mg.kyt=USa,(o(,La)/48(E)VT(s.t.P.(x)=P.(M)N-11Nk=12023年(6)(7)(8)(10)(ii,i2,.,in)$(11)(ii,i2,in)E(12)有界且满第3期理。给定张量 E Rxx,首先,分解 m=mlmXman=n1 n2 na,将X重排为大小为mmmnXnzn的2 十1阶张量;然后,置换i的维数顺序,得到大小为mnm2nzmn的2 q+1阶张量2;最后,将重构为大小为m1nmznz.mn的+1阶增广张

12、量。经KA技术处理的数据张量规模均为44444444X3。在采样率为10%下,5种算法的恢复效果如图2 所示。杨云荷,等:基于TT秩非凸优化的张量填充方法87(a)原始图像(b)缺失图像图210%采样率下,不同算法恢复的彩色图像从图2 可以看出,经本文所提出的填充方法所恢复得到彩色图像结构更清晰,色彩更明亮。采样率为10%50%,采用5种方法进行彩色图像恢复实验,得到上述4幅图片的峰值信噪比值如图3所示。30252015105103025201510510(c)TCTF+TCTFSTDC-HaLRTC-IpST-O-NTTC2030采样率/%(a)帆船+TCTFSTDCVHaLRTC-IpST

13、-NTTC2030采样率/%(c)巨人图3不同算法的峰值信噪比值(d)STDC282624221614121040504050(e)HaLRTC102035301510510(f)IpST+TCTFSTDC-HaLRTC-IpST-e-NTTC3040采样率/%(b)蝴蝶+TCTFSTDCHaLRTC-pST-NTTC2030采样率/%(d)芭芭拉(g)NTTC50405088从图3可以看出,相较于其余4种方法,本文提出的NTTC取得了更高的峰值信噪比值,特别是采样率为10%40%时,优势更为明显。4结束语本文运用TT秩概念,提出一种基于TT秩的LRTC模型。与传统TT秩模型不同,采用非凸函数

14、逼近传统的核范数,更好地刻画了原模型中低秩特性。采用KA技术对张量数据进行升阶预处理,充分展示了数据块低秩性,恢复的彩色图像结构更清晰,纹理更丰富。后续将依据数据张量的稀疏特征,引进相应的正则项,进一步提高数据恢复效果。参考文献1J KOLDA T G,BADER B W.Tensor decompositions and applicationsLJJ.SIAM Review,2009,51(3):455-500.2 TUCKER L R.Some mathematical notes on three-mode factor analysisJJ.Psychometrika,1996,31

15、(3):279-311.3J LU C Y,FENG J S,CHEN Y D,et al.Tensor robust principal component analysis with a new tensor nuclear normJ.IEEE Transactions on Pattern Analysis and Machine Intelligence,2020,42(4):925-938.4J OSELEDETS I V.Tensor-train decompositionJJ.SIAM Journal on Scientific Computing,2011,33(5):229

16、5-2317.5J YANG J H,ZHAO X L,JI T Y,et al.Low-rank tensor train for tensor robust principal component analysisJJ.Applied Mathematics and Computation,2020,367(1):124783.6 BENGUA J A,PHIEN H N,TUAN H D,et al.Efficient tensor completion for color image and video recovery:low-rank tensor trainJ.IEEE Tran

17、sactions on Image Processing,2017,26(5):2466-2479.7J CHEN K,DONG H B,CHAN K S.Reduced rank regression via adaptive nuclear norm penalizationJ.Biometrika,2013,100(4):901-920.8J LU C Y,FENG J S,LIN Z C,et al.Exact low tubal rank tensor recovery from gaussian measurementsCJ/International Joint Conferen

18、ce on Artificial Intelligence,Stockholm Sweden:AAAI Press,2018:2504-2510.9 CHEN Y L,HSU C T,LIAO H.Simultaneous tensor decomposition and completion using factor priorsJJ.IEEETransactions on Pattern Analysis and Machine Intelligence,2014,36(3):577-591.1oJ LIU J,MUSIALSKI P,WONKA P,et al.Tensor comple

19、tion for estimating missing values in visual dataJJ.IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(1):208-220.11J SHANG K,LI Y F,HUANG Z H.Iterative p-shrinkage thresholding algorithm for low tucker rank tensorrecoveryJJ.Information Sciences,2019,482(1):374-391.12J OH T H,TAI

20、 Y W,BAZIN J C,et al.Partial sum minimization of singular values in robust PCA:algorithm andapplicationsJJ.IEEE Transactions on Pattern Analysis and Machine Intelligence,2016,38(4):744-758.杭州电子科技大学学报(自然科学版)2023年A tensor completion method based on TT rank nonconvex optimizationYANG Yunhe,LING Chen(Sc

21、hool of Sciences,Hangzhou Dianzi University,Hangzhou Zhejiang 310018,China)Abstract:In this paper,a low-rank tensor completion(LRTC)model based on tensor train(TT)decomposition is proposed.In the presented model,the original third-order tensor is expanded into ahigh-order tensor by using Ket augment

22、ation(KA),so as to reveal the block low-rank feature of thedata tensor.Furthermore,the non-convex function is used to approximate the rank function,whichcan better characterize the low-rank feature of the data.Experiments on color image restorationdemonstrate that the proposed method has higher peak signal to noise ratio(PSNR)value whencompared with the existing four tensor completion methods,especially in the 10%40%sampling rate case.Key words:tensor completion;tensor train rank;nonconvex optimization;Ket augmentation;image restoration

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服