收藏 分销(赏)

注意力与特征融合的未来帧预测异常行为检测算法.pdf

上传人:自信****多点 文档编号:827691 上传时间:2024-03-26 格式:PDF 页数:7 大小:1.95MB
下载 相关 举报
注意力与特征融合的未来帧预测异常行为检测算法.pdf_第1页
第1页 / 共7页
注意力与特征融合的未来帧预测异常行为检测算法.pdf_第2页
第2页 / 共7页
注意力与特征融合的未来帧预测异常行为检测算法.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 卷 第期 年月探 测 与 控 制 学 报J o u r n a l o fD e t e c t i o n&C o n t r o lV o l N o A u g 收稿日期:作者简介:张瑜玮(),女,河南新乡人,硕士研究生.注意力与特征融合的未来帧预测异常行为检测算法张瑜玮,王燕妮(西安建筑科技大学信息与控制工程学院,陕西 西安 )摘要:针对异常行为检测模型中检测准确度较低,目标异常类型判断不准确等问题,提出注意力与特征融合的未来帧预测异常行为检测算法.该算法采用无监督生成对抗网络模型,通过计算真实帧和预测帧之间的误差来判断当前帧是否为异常帧.在生成网络中,以U N e t网络结构为基

2、础,首先引入S o f t P o o l层,减少池化过程中的信息损失;其次引入即插即用的轻量级注意力机制,增强背景信息和目标信息差,有效提升网络性能的同时不增加网络的复杂性;然后,在U N e t编码器低层构造了一种新的特征融合模块来增强图像全局信息的依赖性;最后,为了融合上下文信息,提取更丰富的特征作为输出图像,构造一种新的特征提取模块添加到网络特征图的输出部分.判别网络以马尔可夫判别器为基础,使网络更加关注图像的细节特征.实验中,采用C UHKA v e n u e数据集和U C S DP e d 数据集对该算法进行验证.实验结果表明,改进后的网络在C UHKA v e n u e数据集

3、上检测精度达到了 ,在U C S DP e d 数据集上检测精度达到了 ,证明了该算法的有效性.关键词:生成对抗网络;人体异常行为检测;未来帧预测;特征融合;轻量级注意力机制中图分类号:T P 文献标志码:A文章编号:()A n o m a l o u sB e h a v i o rF u t u r eF r a m eP r e d i c t i o nA l g o r i t h mw i t hA t t e n t i o na n dF e a t u r eF u s i o nZ HAN GY u w e i,WAN GY a n n i(S c h o o l o f

4、i n f o r m a t i o na n dc o n t r o l e n g i n e e r i n g,X i a nU n i v e r s i t yo f a r c h i t e c t u r ea n dt e c h n o l o g y,X i a n ,C h i n a)A b s t r a c t:I no r d e r t os o l v e t h ep r o b l e m so f l o wd e t e c t i o na c c u r a c ya n d i n a c c u r a t ed e t e r m i

5、 n a t i o no f t a r g e t a b n o r m a l t y p e s i n t h ea b n o r m a l b e h a v i o u rd e t e c t i o nm o d e l,a f u t u r e f r a m ep r e d i c t i o na b n o r m a l b e h a v i o u rd e t e c t i o na l g o r i t h mw i t ha t t e n t i o na n df e a t u r e f u s i o nw a sp r o p o

6、 s e d i nt h i sp a p e r T h ea l g o r i t h mu s e da nu n s u p e r v i s e dg e n e r a t i v ea d v e r s a r i a ln e t w o r km o d e l t od e t e r m i n ew h e t h e r t h e c u r r e n t f r a m ew a sa na n o m a l yb yc a l c u l a t i n gt h ee r r o rb e t w e e nt h er e a l f r a m

7、 ea n dt h ep r e d i c t e df r a m e F i r s t l y,aS o f t P o o l l a y e rw a s i n t r o d u c e di nt h eg e n e r a t i v en e t w o r k,b a s e do nt h eU N e tn e t w o r ks t r u c t u r e,t or e d u c et h e i n f o r m a t i o nl o s sd u r i n gp o o l i n g S e c o n d l y,t h ei n t

8、r o d u c t i o no f a l i g h t w e i g h ta t t e n t i o nm e c h a n i s mt h a te n h a n c e dt h ed i f f e r e n c eb e t w e e nb a c k g r o u n da n dt a r g e ti n f o r m a t i o nc o u l de f f e c t i v e l yi m p r o v en e t w o r kp e r f o r m a n c ew i t h o u t i n c r e a s i

9、n gt h ec o m p l e x i t yo ft h en e t w o r k T h e n,an e wf e a t u r e f u s i o nm o d u l ew a sc o n s t r u c t e da t t h e l o wl e v e l o f t h eU n e t e n c o d e r t oe n h a n c e t h ed e p e n d e n c eo f t h eg l o b a l i n f o r m a t i o no f t h e i m a g e F i n a l l y,i

10、no r d e rt of u s ec o n t e x t u a l i n f o r m a t i o na n de x t r a c tr i c h e rf e a t u r e sa s t h eo u t p u t i m a g e,an e wf e a t u r ee x t r a c t i o nm o d u l ew a s c o n s t r u c t e dt ob ea d d e dt ot h eo u t p u tp a r t o ft h en e t w o r kf e a t u r em a p I no r

11、 d e rt om a k et h em o d e lm o r ef o c u s e do nt h ed e t a i l e df e a t u r e so f t h ei m a g e,t h ed i s c r i m i n a t i v en e t w o r ku s e daP a t c h G ANs t r u c t u r e I nt h ee x p e r i m e n t s,t h eC UHK A v e n u ed a t a s e ta n dt h eU C S DP e d d a t a s e tw e r e

12、u s e d t ov a l i d a t e t h e a l g o r i t h m T h e e x p e r i m e n t a l r e s u l t s s h o w e d t h a t t h e i m p r o v e dn e t w o r ka c h i e v e dad e t e c t i o na c c u r a c yo f o n t h eC UHKA v e n u ed a t a s e t a n d o n t h eU C S DP e d d a t a s e t,p r o v i n gt h e

13、e f f e c t i v e n e s so f t h ep r o p o s e dm e t h o d K e yw o r d s:g e n e r a t i v e a d v e r s a r i a l n e t w o r k;a b n o r m a l h u m a nb e h a v i o u r d e t e c t i o n;f u t u r e f r a m ep r e d i c t i o n;f e a t u r e f u s i o n;l i g h t w e i g h t a t t e n t i o nm

14、 e c h a n i s m 引言异常行为检测是增强监控场所安全的重要科学技术手段,具有重要的社会价值和应用价值.传统的异常行为检测算法特征提取方法包括通过获取物体在运动过程中的位置、长度、速度等信息构造特征的基于轨迹的方法和通过提取底层的空间信息的基于低维特征的方法.虽然这些方法在某些特定的场景下能够取得较好的检测效果,但这些方法是通过人工提取特征,算法对于数据库依赖较大,其异常检测算法不具有客观性,且易受光照变换、视角转换、图像噪声等方面的影响.随着卷积神经网络在行为识别领域研究的逐步深入,基于深度学习的视觉特征逐渐应用到异常行为检测模型中,并取得了较大的进展.目前,基于深度学习的异常

15、行为检测主要有两个方向:一是基于重构的异常行为检测;二是基于预测的异常行为检测.基于重构的异常行为检测是对输入正常行为的视频图像进行特征提取,再解码为重构图像,最终以重构误差作为异常得分判断视频图像中是否含有异常行为.该方法包括以循环卷积网络(R NN)、生成对抗网络(GAN)、D卷积网络 等网络为基础模型进行图像重构.由于基于重构的异常行为检测方法仅在正常数据上进行学习,因此模型不能准确判断出遮挡情况下的异常行为,导致检测效果差.基于预测的异常行为检测,通过提取一段连续帧视频图像的外观特征与运动特征进行建模,生成预测图像,将预测图像与真实图像进行对比得到预测误差来判断.该方法主要应用于异常行

16、为类型定义不准确的检测算法中.针对现实生活中提取到的视频无任何标签信息,异常行为类型不能准确判断等问题,提出一种注意力与特征融合的未来帧预测算法用于异常行为检测.相关理论 生成对抗网络生成对抗网络(GAN)是一种生成式的、对抗的无监督网络模型,是生成网络和判别网络两个神经网络相互竞争的过程.生成器的目的是通过学习真实的图像数据分布尽可能生成让判别器无法区分的逼真样本,而判别器则是尽可能去判别该样本是真实样本还是由生成器生成的假样本.在理想条件下,生成器和判别器会达到纳什均衡状态.图展示了GAN的基本框架.图生成对抗网络原理图F i g S c h e m a t i cd i a g r a

17、mo f g e n e r a t i n ga d v e r s a r i a l n e t w o r k为了使模型更加关注图像的细节特征,提高图像的清晰度,年I s o l a等人提出马尔可夫判别器(P a t c h GAN),将判别器改进成了全卷积网络,输出nn的矩阵作为评价值用来评价生成器的生成图像.U N e t网络基于自身参数较少、易于训练的优点,U N e t网络在图像检测领域得到了广泛的应用.为了解决梯度消失和信息不平衡问题,U N e t网络在编码器与解码器之间引入跳跃连接,将相同分辨率的全局空间信息与局部细节信息进行融合,生成较高质量的图像.文献 提出了一种基于

18、生成对抗网络预测未来帧的异常行为检测方法,该方法以正常样本进行学习,运用以U N e t网络作为生成器的生成对抗网络,通过对比预测帧和未来帧,判断图像是否包含异常行为,但该方法的准确率还需要进一步提升.注意力与特征融合的未来帧预测异常行为检测算法为了对原始算法的不足进行改进,本文采用无监督学习方式进行视频帧预测,利用生成对抗网络作为基础网络,以U N e t网络为基础对生成器进行改进.首先引入了S o f t P o o l层尽可能减少池化过程中带来的信息损失;其次,为了保留更为丰富的上下文信息,突出关键信息部分,引入E C A注意力机制;然后,编码器对输入的连续帧进行下采样提取底层特征,并将

19、最后一层特征图输入B T E N e t模块编张瑜玮等:注意力与特征融合的未来帧预测异常行为检测算法码全局信息,学习特征像素之间的相关信息;最后,在网络特征图的输出部分引入C S E N e t模块,基于注意力机制的特征提取出更加符合要求的通道作为输出.然后将预测图像输入到马尔可夫判别器中,由其判断真假.为了提升模型的预测效果,施加强度和梯度损失函数对空间进行约束,并加入光流损失来加强时间约束,保证运动的一致性.整体网络框架如图所示.图整体网络框架图F i g O v e r a l l n e t w o r kf r a m e w o r kd i a g r a m S o f t P

20、 o o l池化层异常行为检测中所采集到的数据集大多包含大量背景信息,人在图像中所占像素较少且相邻帧图像的相似度较高.原U N e t网络利用最大值池化实现下采样的过程容易损失部分重要信息导致误检.因此,使用S o f t P o o l 池化层替换U N e t中的最大池化层,利用s o f t m a x的加权方法保留输入图像的特征属性,对感受野内的所有像素以加权求和的方式映射到网络的下一层,使得网络在对特征图进行下采样的同时,尽量减少特征信息的丢失,更多保留图中的细粒度信息,适用于异常行为的特征提取网络.高效通道注意力机制考虑到计算性能和模型的复杂度,在特征融合层中引入了一种轻量级注意力

21、机制E C A N e t,其架构图如图所示.该网络在不降低通道维数的情况下进行跨通道信息交互.首先采用全局平均池化操作实现低维嵌入,得到C的特征向量,其次采用大小为K的一维卷积进行局部跨通道连接操作.通道数C和局部跨通道卷积核K对应关系为Kl bCrbro d d,()式()中,r,b,K为计算出来临近的奇数值.图E C A架构图F i g E C Aa r c h i t e c t u r ed i a g r a m B T E N e t模块基于B o T N e t模型 在低层U N e t编码器与探 测 与 控 制 学 报解码器之间添加改进的B o t t l e n e c k

22、T r a n s f o r m e r s模块和E C A模块组合而成的B T E N e t模块,其结构图如图所示.其中B o t t l e n e c kT r a n s f o r m e r s模块借鉴了R e s N e tB o t t l e n e c k模块结构,将R e s N e tB o t t l e n e c k模块中的空间卷积层替换成多头自注意力块MH S A(m u l t i h e a ds e l f a t t e n t i o n),如图所示.添加B T E N e t模块后,提升目标检测的性能,使得网络能够更好地提取图像中有效的局部特征,

23、聚合图像全局信息的同时降低模型参数量,使延迟最小化.图B T EN e t结构图F i g B T EN e t s t r u c t u r ed i a g r a m图MH S A结构图F i g MH S As t r u c t u r ed i a g r a m C S E N e t模块为了更好融合图像的上下文信息,增强特征表示,改进了解码器输出分类层的上采样网络结构,将其命名为C S E N e t.该模块将单一的卷积层替换成残差网络结构,同时考虑到特征通道间重要程度的不同,提高对图像帧关键信息的提取能力,引入S E注意力模块,为后续图像预测过程打基础.C S E N e

24、t模块的结构图如图所示.图C S EN e t结构图F i g C S EN e t s t r u c t u r ed i a g r a m 实验与结果分析 约束条件与评价指标 损失函数在本文实验中,生成器不仅被训练用来欺骗判别器,而且还被要求约束条件中生成的图像和原图像之间的相似性.因此,生成器的损失函数由强度损失、梯度损失、光流损失、对抗损失组成.强度损失用来保证两帧图像的R G B空间中对应像素的相似性;梯度损失可以使生成的图像锐化,更好地保持帧的清晰度;引入光流损失为了约束运动信息,计算预测帧与真实帧之间运动信息.生成对抗网络的训练过程包含训练判别器和训练生成器.判别器和生成器的

25、训练过程的损失函数为LDa(I,I)i,jLM S E(D(I)i,j,)i,jLM S E(D(I)i,j,),()LM S E(Y,Y)(YY),()LGa(I)i,jLM S E(D(I)i,j,),()式中,D(I)为判别器在真实样本工上的判别结果,D(I)为判别器在生成器生成样本I上的判别结果.最终得到生成器的损失函数为LGi(It It)g(i,j Ii,j Ii,j Ii,j Ii,j Ii,j Ii,jIi!,j Ii,j)o(f(It,It)f(It,It)aLGa(It).()判别器的损失函数为LDLDa(It,It),()式()中,i表示强度损失函数的权重,g表示梯度损失

26、函数的权重,o表示光流损失函数的权重,a表示对抗损失函数的权重.异常得分函数预测帧与真实帧之间的差异程度由预测帧I与真实帧I之间的峰值信噪比(P S N R)表示,即P S N R(I,I)l gm a xINNi(IiIi),()张瑜玮等:注意力与特征融合的未来帧预测异常行为检测算法P S N R越小表明该帧是异常的概率越大,因此,可根据P S N R设置阈值判断视频帧是否异常.实验数据及评价指标C UHKA v e n u e数据集是目前视频异常检测领域最广泛使用的数据集之一,其主要包括 个训练视频段和 个测试视频段,测试视频中总共包含有 个异常事件.每个视频时长约为m i n,视频帧的分

27、辨率大小为 .部分异常行为示例如图所示.图C UHKA v e n u e数据集部分异常行为示例F i g E x a m p l eo f a n o m a l o u sb e h a v i o u r i np a r to f t h eC UHKA v e n u ed a t a s e tU C S DP e d 数据集由加州大学制作的视频异常检测数据集,其异常事件都与交通工具有关,部分异常行为如图所示.该数据集包含 个训练视频段和 个测试视频端,测试视频共包含 个异常事件.每个视频段大约包含 帧灰度图,视频的分辨率大小为 .图U C S DP e d 数据集部分异常行为示例

28、F i g E x a m p l eo f a n o m a l o u sb e h a v i o u r i np a r to f t h eU C S DP e d d a t a s e t该模型在NV I D I A T e s l aV ,显存为 G B的平台上进行实验,使用P y t h o n 语言,软件环境为P y t o r c h ,c u d a .为了衡量本文方法用于视频异常行为检测的有效性,采用了控制异常得分阈值来绘制接收者操作特征曲线(r e c e i v e ro p e r a t i n gc h a r a c t e r i s t i c,R

29、 O C)的曲线下面积(a r e au n d e rc u r v e,AU C)作为评价指标.本文方法和大多数算法一样,使用帧级别AU C来评价算法性能,即只要在视频帧中任何一个位置被判定为异常,则该视频帧就被判定为异常.参数设置训练时,所有帧的像素被归一化值,每帧图像大小设置为 ,将连续帧图像作为生成器的输入数据,即设置t.使用A d a m优化方法,生成器和判别器的学习率分别设置为 和 ,目标函数中i、g、o、a分别设置为 、.实验结果 检测性能比较为了证明本文方法在视频异常检测方面的有效性,将改进的方法与现有的种不同方法在C UHKA v e n u e数据集和U C S DP e

30、 d 数据集中进行比较.其中包含构建传统浅层模型、深度重构模型、深度预测模型三类.MP P C A(概率主成分分析器的混合)S F(社会力)、MD T(动态纹理的混合)是基于手工特征的方法;C o n v A E、C o n v l s t m A E、S t a c k e dR NN 和S e l f t r a i n i n g 是基于自编码器的方 法,通 过 重 构 模 型 检 测 异 常 行 为;P r e dR e c o n 是基于生成对抗网络的方法,通过预测模型检测异常行为.表显示了各种方法的帧级视频异常检测结果.表不同算法在C U H KA v e n u e和U C S

31、DP e d 数据集上的A U C结果对比T a b AU Co fd i f f e r e n tm e t h o d so nt h eC UHKA v e n u ea n dU C S DP e d d a t a s e t s算法AU CC UHKA v e n u eU C S DP e d MP P C AS F MD T C o n v A E C o n v l s t m A E S t a c k e dR NN S e l f t r a i n i n g P r e d R e c o n O u rM o d e l 从表可以观察到,基于自编码器的深度重构模

32、型通常优于基于手工特征的传统浅层模型.这是因为手工特征的提取通常是基于其他的任务而取得的,因此可能是次优的.此外,从表中数据还可以发探 测 与 控 制 学 报现基于生成对抗网络的深度预测模型比大多数基线方法表现更优.本文提出的算法在C UHK A v e n u e数据集上 取 得 了 的AU C,比 效 果 最 优 的P r e d R e c o n方法领先 .在U C S DP e d 数据集上AU C达到了 .为了更直观地显示本文算法的有效性,图展示了最优的深度学习预测算法同一视频帧的热图和本文改进算法的热图.通过对比可以看出,改进算法中目标和背景差被明显放大,背景噪声减小,亮度被抑制

33、,有利于网络更专注于提取运动的目标,同时减少了背景对目标的影响.图不同算法热图可视化F i g H e a t m a pv i s u a l i z a t i o no fd i f f e r e n t a l g o r i t h m s 有效性验证及讨论为了验证本文方法中各个模块的有效性,在C UHKA v e n u e数据集上做了消融实验来验证.实现结果如表所示.表不同模块结果对比T a b C o m p a r i s o no f t h er e s u l t so f t h ed i f f e r e n tm o d u l e sS o f t p o

34、o lE C AL a y e r B T EN e t C S EN e tAU C 异常行为结果显示以C UHKA v e n u e数据集的T e s t i n g 测试视频为示例显示异常检测结果,如图 所示.横轴表示视频帧数,纵轴用预测帧与真实帧之间的峰值信噪比(P S N R)作为异常得分的评判指标,本文将阈值设置为,P S N R值越小,则表明有异常行为出现,P S N R值越大,则行为正常.从图中可以看出,当行人正常行走时,P S N R保持较高值,当有行人出现并抛掷物体时,异常得分极速降低;最后行人恢复正常行走时,P S N R又恢复到较高水平值.图 异常检测结果F i g

35、A n o m a l yd e t e c t i o nr e s u l t s 结论注意力与特征融合的未来帧预测异常行为检测算法通过构建生成对抗网络对视频进行未来帧预测来检测异常行为,该算法对U N e t网络框架进行了改进,引入了一种快速高效的池化方法,设计了新的特征融合模块和特征提取模块,引入了轻量级注意力机制,有效改善了复杂场景下前景背景区分不明显,视频流时空间信息量不均衡,检测效果差等问题.实验结果表明,该算法对复杂场景中的人体异常检测更准确,在C UHK A v e n u e数据集中AU C达到了 ,在U C S DP e d 数据集中AU C达到了 ,证明了改进方法的有效

36、性.但该算法的检测速度有所下降,在后续工作中将进一步轻量化网络结构,提升算法的检测速度.参 考 文 献:彭嘉丽,赵英亮,王黎明基于深度学习的视频异常行为检测研究J激光与光电子学进展,():J UN E J OIN U s i n gd y n a m i cB a y e s i a nn e t w o r k f o r s c e n em o d e l i n ga n da n o m a l yd e t e c t i o nJ S i g n a l,I m a g ea n dV i d e oP r o c e s s i n g,():张晓平,纪佳慧,王力,等基于视频的

37、人体异常行为识别与检测方法综述J控制与决策,():刘婷基于多尺度时空卷积网络的异常行为检测算法研究D太原:中北大学,WAN GQ,MAQ,L UOCH,e ta l H y b r i dh i s t o g r a m张瑜玮等:注意力与特征融合的未来帧预测异常行为检测算法o fo r i e n t e do p t i c a l f l o wf o ra b n o r m a lb e h a v i o rd e t e c t i o ni nc r o w ds c e n e sJI n t e r n a t i o n a l J o u r n a l o fP a

38、t t e r nR e c o g n i t i o na n dA r t i f i c i a lI n t e l l i g e n c e,():MAHA D E VAN V,L I W,B HA L O D I A V,e ta l A n o m a l yd e t e c t i o ni nc r o w d e ds c e n e sC I E E Ec o m p u t e rs o c i e t yc o n f e r e n c eo nc o m p u t e rv i s i o na n dp a t t e r nr e c o g n i

39、t i o n U S:I E E E,:L IW X,MAHA D E VAN V,VA S C ON C E L O SN A n o m a l yd e t e c t i o na n dl o c a l i z a t i o ni nc r o w d e ds c e n e sJI E E ET r a n s a c t i o n so nP a t t e r nA n a l y s i sa n d M a c h i n eI n t e l l i g e n c e,():陈莹,何丹丹基于贝叶斯融合的时空流异常行为检测模型J电子与信息学报,():L UO W

40、,L I U W,G A OS R e m e m b e r i n gh i s t o r yw i t hc o n v o l u t i o n a l l s t mf o r a n o m a l yd e t e c t i o nC I E E EI n t e r n a t i o n a lC o n f e r e n c eo n M u l t i m e d i aa n dE x p o(I C ME)U S:I E E E,:L UO W,L I U W,G A OS Ar e v i s i to fs p a r s ec o d i n gb a

41、s e da n o m a l yd e t e c t i o n i ns t a c k e dr n n f r a m e w o r kCP r o c e e d i n g so ft h eI E E Ei n t e r n a t i o n a lc o n f e r e n c eo nc o m p u t e rv i s i o n U S:I E E E,:武慧敏视频中的非特定异常事件时空位置检测D成都:电子科技大学,Z HA OY,D E NGB,S HE NCH,e t a l S p a t i o t e m p o r a l a u t o e

42、 n c o d e rf o rv i d e oa n o m a l yd e t e c t i o nCP r o c e e d i n g so ft h e t hA CMI n t e r n a t i o n a lC o n f e r e n c eo nM u l t i m e d i a,U S,N e wY o r k:A CM,:I S O L AP,Z HUJY,Z HOUT,e ta l I m a g e t o i m a g et r a n s l a t i o nw i t hc o n d i t i o n a la d v e r s

43、a r i a ln e t w o r k sCP r o c e e d i n g so f t h eI E E Ec o n f e r e n c eo nc o m p u t e rv i s i o na n dp a t t e r nr e c o g n i t i o n U S:I E E E,:R ONN E B E R G E R O,F I S CHE RP,B R O X T U n e t:C o n v o l u t i o n a ln e t w o r k s f o rb i o m e d i c a l i m a g es e g m e

44、 n t a t i o nCI n t e r n a t i o n a lC o n f e r e n c eo n M e d i c a lI m a g eC o m p u t i n ga n dC o m p u t e A s s i s t e dI n t e r v e n t i o n S p r i n g e r,C h a m:M I C C A I,:L I U W,L UO W,L I AND,e t a l F u t u r e f r a m ep r e d i c t i o nf o ra n o m a l yd e t e c t i

45、o n A n e w b a s e l i n eCP r o c e e d i n g so ft h eI E E E C o n f e r e n c eo nC o m p u t e rV i s i o na n dP a t t e r nR e c o g n i t i o n U S:I E E E,:S T E R G I OU A,P O P P E R,KA L L I A T AK I SG,R e f i n i n ga c t i v a t i o nd o w n s a m p l i n gw i t hS o f t P o o lCP r

46、o c e e d i n g so ft h eI E E E/C V FI n t e r n a t i o n a lC o n f e r e n c eo nC o m p u t e rV i s i o n U S:I E E E,:WAN GQ,WUB,Z HUP,e ta l E C A N e t:E f f i c i e n tc h a n n e l a t t e n t i o n f o rd e e pc o n v o l u t i o n a l n e u r a l n e t w o r k sCP r o c e e d i n g so f

47、t h eI E E E/C V F C o n f e r e n c eo nC o m p u t e rV i s i o na n dP a t t e r nR e c o g n i t i o n(C V P R)S e a t t l e,U S:I E E E,S R I N I VA SA,L I N T Y,P A RMA R N,e ta l B o t t l e n e c kt r a n s f o r m e r sf o rv i s u a lr e c o g n i t i o nCP r o c e e d i n g so f t h eI E

48、E E/C V FC o n f e r e n c eo nC o m p u t e rV i s i o na n dP a t t e r nR e c o g n i t i o n(C V P R)U S:I E E E,:HEK,Z HANGX,R E NS,e t a l D e e pr e s i d u a l l e a r n i n gf o r i m a g er e c o g n i t i o nCP r o c e e d i n g so f t h eI E E Ec o n f e r e n c eo nc o m p u t e rv i s

49、i o na n dp a t t e r nr e c o g n i t i o n U S:I E E E,:HUJ,S HE NL,S UN G S q u e e z e a n d e x c i t a t i o nn e t w o r k sCP r o c e e d i n g so ft h eI E E E c o n f e r e n c eo nc o m p u t e rv i s i o na n dp a t t e r nr e c o g n i t i o n U S:I E E E,:L I W,MAHA D E VAN V,VA S C ON

50、 C E L O S N A n o m a l yd e t e c t i o na n d l o c a l i z a t i o n i nc r o w d e ds c e n e sJI E E Et r a n s a c t i o n s o np a t t e r na n a l y s i s a n dm a c h i n e i n t e l l i g e n c e,():HA S AN M,CHO IJ,N E UMANNJ,e ta l L e a r n i n gt e m p o r a l r e g u l a r i t y i nv

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服