收藏 分销(赏)

伪异常引导的卷积自编码网络视频异常检测.pdf

上传人:自信****多点 文档编号:734900 上传时间:2024-02-27 格式:PDF 页数:7 大小:5.38MB
下载 相关 举报
伪异常引导的卷积自编码网络视频异常检测.pdf_第1页
第1页 / 共7页
伪异常引导的卷积自编码网络视频异常检测.pdf_第2页
第2页 / 共7页
伪异常引导的卷积自编码网络视频异常检测.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、引用格式:刘辉,何如瑾,张琳玉,等伪异常引导的卷积自编码网络视频异常检测 J.微电子学与计算机,2023,40(9):38-44LIU H,HE R J,ZHANG L Y,et al.Pseudo-anomaly-guided convolutional autoencoder video anomaly detectionJ.Micro-electronics&Computer,2023,40(9):38-44.DOI:10.19304/J.ISSN1000-7180.2022.0781伪异常引导的卷积自编码网络视频异常检测刘辉1,2,何如瑾1,2,张琳玉1,2,季娟1,2(1 重庆邮电大

2、学 通信与信息工程学院,重庆 400065;2 重庆邮电大学 数智化通信新技术应用研究中心,重庆 400065)摘要:视频异常检测由于可以高效、低成本地维护公共安全,在国家安防、医疗监护中发挥着重要作用.基于重构的深度自编码网络异常检测方法因其强大的表示能力而得到了广泛的研究.然而,自编码网络通常也可以成功地重建异常行为,从而导致异常行为的漏检.针对这一问题,提出了一种伪异常引导的卷积自编码网络视频异常检测方法,模型使用 3D 卷积提取视频时空特征.首先,通过正常数据模拟异常数据分布生成伪异常,提出了两种生成伪异常的方法:基于跳帧的方法和基于补丁的方法;然后,使用正常数据和生成的伪异常数据训练

3、模型,训练时较好地重建正常数据同时较差地重建伪异常数据,由此模型被鼓励为限制异常数据的重建;最后,在 UCSD-Ped2、Avenue 和ShanghaiTech 三个公共视频异常检测数据集上与其他基于重建的模型进行比较,其检测精度获得了有效提升.关键词:异常检测;深度自编码网络;伪异常;3D 卷积中图分类号:TP391.41 文献标识码:A 文章编号:1000-7180(2023)09-0038-07Pseudo-anomaly-guided convolutional autoencoder video anomaly detectionLIU Hui1,2,HE Rujin1,2,ZHA

4、NG Linyu1,2,JI Juan1,2(1 School of Communication and Information Engineering,Chongqing University of Posts and Communications,Chongqing 400065,China;2 Research Center of New Telecommunication Technology Applications,Chongqing University of Posts andCommunications,Chongqing 400065,China)Abstract:Vide

5、o anomaly detection plays an important role in national security and medical monitoring because it canmaintain public safety efficiently and at low cost.Reconstruction-based deep autoencoder anomaly detection methods havebeen extensively studied for their powerful representational capabilities.Howev

6、er,autoencoder can often also successfullyreconstruct abnormal behavior,leading to missed detection of abnormal behavior.To solve this problem,a pseudo-anomalyguided convolutional autoencoder video anomaly detection method is proposed.The model uses 3D convolution to extractvideo spatio-temporal fea

7、tures.Firstly,the normal data is used to simulate the abnormal data distribution to generate pseudo-abnormal data.Two methods of generating pseudo-anomalies are proposed:skip frame and patch based.Then,the normaldata and the generated pseudo-abnormal data were used to train the model.During the trai

8、ning,the normal data wasreconstructed well while the pseudo-abnormal data was reconstructed poorly.Therefore,the model was encouraged to limitthe reconstruction of abnormal data.Finally,compared with other reconstruction-based models on UCSD-Ped2,Avenue andShanghaiTech public video anomaly detection

9、 data sets,the detection accuracy has been effectively improved.Key words:anomaly detection;deep autoencoder;pseudo anomaly;3D convolution 收稿日期:2022-11-24;修回日期:2023-01-09 40 卷 第 9 期微 电 子 学 与 计 算 机http:/Vol.40No.92023 年 9 月MICROELECTRONICS&COMPUTERSeptember 2023 1引言随着国家安防意识的不断提高,现在公共场所内都大规模部署了监控系统,迫切

10、需要使用视频异常检测方法来自动检测异常.然而,在现实生活中,异常行为很少发生而且异常的定义依赖于不同的环境,很难收集所有可能的异常样本,因此,异常检测通常使用半监督学习方法,在训练时仅使用正常数据,不符合正常数据的则被视为异常.自动编码器(AutoEncoder,AE)1-3 因其对高维数据强大的表示能力在异常检测中被广泛研究.AE 通过最小化正常数据的重建误差来进行训练,在测试时正常数据的重建误差较低,而异常数据的重建误差较高,设置阈值来判定异常.然而,这种情况并不总是成立的,由于 AE 具有强大的学习能力,一些异常行为也可能被成功地重建,造成漏检.针对于这个问题国内外的研究已经取得一定进展

11、,文献 4-6 在 AE 的编码器和解码器之间的潜在空间上采用了一种内存机制,然而,此类网络高度依赖于内存大小,当内存过小时还可能影响正常数据的重建;还有一些方法7-8使用级联放大效应解决该问题,但这类方法的模型结构一般很复杂,需要两次及以上的重建.最近,视频异常检测领域一个新的方法是利用正常数据生成的伪异常.OGNet9建议使用未经训练和逆向学习的生成器生成伪异常数据,以训练二进制分类器,然而,这些方法要经过两个阶段的训练,需要一定的计算成本.基于上述考虑,本文提出使用伪异常数据以端到端的方式帮助训练 AE,在不影响正常数据重建的前提下限制异常数据的重建.主要工作如下:(1)提出了一种基于伪

12、异常的新方法,该方法鼓励正常数据的重建以端到端的方式来训练 AE.(2)提出了两种类型的伪异常,基于跳帧和补丁的方法来生成伪异常数据.(3)在三个公共异常检测数据集 UCSD-Ped210、Avenue11和 ShanghaiTech12上使用两种伪异常类型进行实验并对其结果进行分析.2伪异常引导的卷积自编码网络模型设计提出的模型框架如图 1 所示,使用正常数据和伪异常数据对 AE 进行训练,最大化伪异常数据的重建损失,同时最小化正常数据的重建损失,模型训练完成之后,正常帧的重建误差较小,而异常帧的重建误差较大,根据重建误差检测异常,使用帧级重建损失计算异常得分.3DConvNormalPse

13、udo abnormal图 1伪异常引导的卷积自编码网络Fig.1 Pseudo-Anomaly-Guided Convolutional Autoencoder Network 2.1自编码网络T CHWbX本文在 AE 中使用 3D 卷积以提取视频中的时空特征,AE 通常为多帧输入,定义模型的输入序列为X,大小为,其中 T、C、H 和 W 分别是输入视频帧的帧数、通道数、高度和宽度,重构的 可以表示为:bX=D(X)(1)D333式中,和分别表示 AE 的编码器和解码器,编码器中包含四个三维卷积层,Tran 等人13发现,卷积核在动作识别任务中效果最好,因此本文对模型中3331222222

14、22的所有 3D 卷积层使用相同的卷积核,第一个3D 卷积核步长设置为以防止时间信号过早合并,其他 3D 卷积核步长设置为,在每个卷积层后使用批量归一化层和 LeakyReLU 激活函数.本文使用跨步卷积来降低特征图的分辨率,这种参数化操作可以支持网络找到一种信息丰富的方法来降低特征图的空间分辨率,并在解码阶段学习进一步的上采样.解码器与编码器的结构对称,三维反卷积层的跨距为,从隐藏层重建输入信号,在最后一层使用 Tanh 层,使输出范围为 1,1.第 9 期刘辉,等:伪异常引导的卷积自编码网络视频异常检测39 X本文使用伪异常数据来限制 AE 的生成能力,并鼓励其在任何类型的异常输入上产生高

15、重建误差.在训练期间,视频帧 作为输入被提供给网络,如下所示:X=XN1 pXPp(2)XPXNp式中,是伪异常合成器生成的帧序列,是来自正常训练数据的帧序列,表示训练时所用伪异常数据的比率.bIn+tIn+t为了使解码器重建的正常帧与其真实值相似,需要最小化解码器输出和真实值之间的 L2距离:lint(In+t,bIn+t)=1T CHWT1t=0?In+tbIn+t?22(3)2.2基于跳帧方法生成伪异常监控视频中的异常行为更容易发生较大的运动变化,因此有效检测快速或突然变化的运动变得尤为重要.为了模拟正常数据的异常运动,本文任意跳过几帧来生成伪异常序列,如图 2 所示,第一行表示正常的运

16、动模式,第二行表示正常帧跳过 3 帧生成的伪异常帧,可以明显看到行人在几帧内几乎完全穿过参考线.具体的实现过程如图 2 所示.NormalPseudoanomaly图 2基于跳帧生成伪异常的过程Fig.2 The process of generating pseudo-anomaly based on skipframe KiVi=I1,I2,I3,IKiXNVinT从长度为帧的训练集中提取序列,具体方法是从中随机选择帧索引,然后取固定数量的连续 帧,具体表示为:XN=(In,In+1,In+T1)=(In+t)0 t T,n+T 1 Ki(4)sXP通过在公式(4)中加入跳帧参数 控制跳过

17、的帧数以生成伪异常示例,具体表示为:XP=(In,In+s,In+(T1)s)=(In+ts)0 t 1(5)XP对于基于跳帧的伪异常合成器生成的,需要最大化其重建损失,因此损失可以类似地定义为:LP=1T CHWT1t=0?In+tsbIn+ts?22(6)2.3基于补丁方法生成伪异常异常行为的种类多种多样,在真实场景中,除了打斗、追逐等暴力异常行为,还可能存在晕倒等非暴力异常行为,除此之外,在监控视频中也可能会存在异常物体.不同于 Astrid14等人提出的需要引入入侵数据集生成伪异常数据的方法,本文提出的方法不需要引入入侵数据集,遵循常规的半监督异常检测方法.生成伪异常图像的过程如图 3

18、 所示.DataaugmentationNormal datasetPseudo anomalydataset图 3基于补丁生成伪异常的过程Fig.3 The process of generating pseudo-anomaly based on patch In+thw hw(1)在任意位置随机裁剪掉一部分矩形区域,该区域大小为,和 大小随机选择,最低大小设置为 30.XNIsIs(2)从序列中任意提取出一帧为,在 中任意位置剪切出一个大小相同的小矩形区域,可通过像素变换或旋转等方法对矩形区域进行数据增强.In+t(3)将第二步剪切出的小矩形填充至第一步被裁掉的区域得到伪异常.TXP(4

19、)依次重复以上(1)(3)次得到外观伪异常数据:In+t=C(MT)Is)+(1 M)In+t(7)XP=(In,In+1,In+T1)=(In+t)0 t T,n+T 1 Ki(8)M1T()C()式中,表示随机矩形的二进制掩码,表示全一矩阵,代表矩阵元素对应位置相乘,表示随机平移变换,表示像素变换或旋转等数据增强方式.In+t对于生成的伪异常,需要最大化其重建损失,40微电子学与计算机2023 年因此损失可以类似地定义为:LP=1T CHWT1t=0?In+tIn+t?22(9)2.4异常得分本文利用基于重建的峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)计

20、算 异 常 分 数.由 文 献 15可知,相对于均方误差(Mean Square Error,MSE),PSNR 可以更好地评估图像质量,因此模型的优化目标如下:Pt=10log10MIt21R?ItIt?2F(10)RbIttMbItbIt式中,是 中的像素总数,是帧索引,是 的最大可能值.对测试视频中的所有帧进行最小-最大归一化,将 PSNR 值归一化到 0,1 范围,如下所示:Qt=Ptmint(Pt)maxt(Pt)mint(Pt)(11)Qt在公式(11)中,较高的代表较低的重建损失,反之亦然.因此,最终异常得分为:At=1Qt(12)3实验结果与分析本文使用UCSD-Ped210、

21、Avenue11和Shanghai-Tech12数据集对提出的模型进行评估.UCSD-Ped2数据集有训练视频有 16 个,测试视频有 12 个,共 40个异常事件,异常情况包括自行车、卡车和轿车等车辆、滑板和轮椅穿过行人区;Avenue 数据集有 16个训练视频和 21 个测试视频,共 47 个异常事件,包括自行车、游荡、跑步等异常行为;ShanghaiTech数据集涵盖了 13 个不同的训练和测试场景,有 330个训练视频和 107 个测试视频,共 130 个不同类型的异常事件,包括自行车、滑板、婴儿车、打架、追逐、推搡、跳跃等异常行为.3.1评价指标和模型参数设置 3.1.1评价指标根据

22、重建误差,通过公式(12)计算异常分数,图 4为三个数据集的异常分数,其中横坐标表示视频帧数,纵坐标为异常分数,红色部分表示该区域内存在异常事件.从图 4 中可以看到,当出现异常时,视频帧的异常得分会明显下降,异常越突出,分数越低.本文使用受试者工作特征(Receiver Operating Characteri-stic,ROC)曲线下面积(Area Under the Curve,AUC)定量评估异常检测方法的性能,AUC 越高,表示异常检测性能越好.Bicycle(a)UCSD-Ped2 异常分数曲线Running people(b)Avenue 异常分数曲线Bicycle(c)Shan

23、ghaiTech 异常分数曲线Anomaly score over timeAnomaly score1.00.80.60.40.20.0020406080Frames100120140160Anomaly score over timeAnomaly score1.00.80.60.40.20.0050100150200Frames250Anomaly score over timeAnomaly score1.00.80.60.40.20.0050100150200Frames图 4来自三个数据集的异常分数曲线Fig.4 Anomaly score curves from three da

24、tasets 3.1.2模型参数设置256256T104ss实验是在一个开源的基于 Torch 的 Python 机器学习库 Pytorch 上实现的,服务器配置为:NVIDIAGEFORCE RTX3080 GPU.本文将所有输入视频帧的大小调整为,帧数 设置为 16,使用具有 1个通道的灰度图像,模型使用 Adam 优化器进行训练,学习率设置为,batch 大小设置为 4.在测试时,16帧视频帧中仅使用第 9 帧用于异常分数计算.公式(5)中的跳帧参数 设置为2,3,4,5,即 可以随机选择跳过 2、3、4、5 帧生成伪异常序列.对于基于跳帧的方法,公式(2)的概率设置为 0.01;对于基

25、于补丁的方法,概率设置为 0.2,当公式(2)中的概率设置为0 时,指的是未经伪异常的训练模型即基线模型.由于 ShanghaiTech 数据集规模庞大,在该数据集上经过 50 次训练后,模型已收敛并稳定,因此 UCSD-Ped2、Avenue 和 ShanghaiTech 的 epoch 大小分别设置为10、30、60.3.2定量结果分析为了验证本文所提出的模型的有效性,本文将其与一些其他基于重建的模型进行比较,详情如表 1 所第 9 期刘辉,等:伪异常引导的卷积自编码网络视频异常检测41 示,其中包括基于手工制作特征的方法,如概率主成分分析器的混合(MPPCA)16;基于深度学习的方法,如

26、二维卷积自编码器(AE-Conv2D)1、基于卷积LSTM 的自动编码器(AE-ConvLSTM)2、三维卷积自动编码器(AE-Conv3D)3、以对象为中心和内存引 导 的 残 留 时 空 自 动 编 码 器(OM-RSTAE)6、内存增强自动编码器(MemAE)4、内存引导的自动编码器(MNAD)5、对抗学习的一类分类器(OGNet)9、集 成 预 测 和 重 构(Pre+Rec)8等 方 法.表 1 UCSD-Ped2、Avenue 和 ShanghaiTech 数据集上不同方法的 AUC 值Tab.1 AUC values of different methods on UCSD-Pe

27、d2,Avenue and ShanghaiTech datasets方法UCSD-Ped2/%Avenue/%ShanghaiTech/%MPPCA1669.3AE-Conv2D185.080.060.9AE-Conv3D391.277.1AE-ConvLSTM288.177.0OM-RSTAE694.084.071.0MemAE494.183.371.2MNAD590.282.869.8OGNet998.1Pre+Rec896.283.771.5基线92.581.571.3Ours:跳帧98.885.275.0Ours:补丁93.785.572.6注:表中粗体部分为当前条件下的最优值 3.

28、2.1基于跳帧的方法定量结果分析从表 1 可以看到,与其他方法相比,基于跳帧的方法在所有三个数据集上都获得了优异的性能.与基于手工制作特征的方法相比,基于跳帧的方法AUC 增益高达近 20%.OM-RSTAE、MemAE 和MNAD 都是基于内存的网络,在 UCSD-Ped2、Avenue和 ShanghaiTech 数据集上的最高AUC 分别为94.1%、84.0%和 71.2%,相对于基于内存的方法,基于跳帧的方法在三个数据集上的AUC 增益分别为4.7%、1.2%、1.8%,这体现了基于跳帧的方法方法相对于基于内存的方法的优越性.与 OGNet 模型和基于预测的 Pre+Rec 模型相比

29、,基于跳帧的方法取得了更好的检测效果.此外,还可以看出基于跳帧的方法在所有三个数据集上的性能都优于基线.具体来说,在 UCSD-Ped2、Avenue 和 ShanghaiTech 数据集上的 AUC 增益分别为 6.3%、3.7%和 3.7%,这证明了本文提出的方法可以有效提高视频异常检测精度,抑制测试视频中异常数据的生成.3.2.2基于补丁的方法定量结果分析从表 1 中可以看出,基于补丁的方法在 Avenue和 ShanghaiTech 数据集上取得优异的成绩,AUC 值分别达到 85.5%、72.6%,但是在 UCSD-Ped2 数据集上的效果明显不如其他基于内存、基于级联的方法,这可能

30、是因为在 Ped2 数据集中主要是自行车、卡车和轿车等车辆、滑板和轮椅穿过行人区等此类异常行为,主要是运动上的异常,外观上的异常不太明显,尤其是滑板,体积非常小,在外观上更是难以区分,但是与基线相比,基于补丁的方法的 AUC 值在三个数据集上还是取得了一定的提升,这证明了基于补丁的方法的有效性.3.3定性结果分析图 5 显示了在UCSD-Ped2、Avenue 和Shanghai-Tech 三个数据集上的重构结果,最左边为真实图,其中包含如自行车、跑步等异常行为,异常行为由红色边框突出显示;第二列是基线的模型重构图和其重建误差热图,第三列是基于跳帧方法的模型重构图和其重建误差热图,最后一列显示

31、的是基于补丁方法的模型重构图和其重建误差热图,这些重建误差热图是通过计算重建帧和输入帧之间每个像素的平方误差,然后进行最小-最大归一化来生成的.从图 5 中可以看出,基线较好地重建了异常,本文提出的方法较差地重建了异常,误差图显著突出了异常事件,这证明了本文提出的模型在视频异常检测中的有效性.3.4对比分析为了进一步了解本文提出的方法,接下来对本文提出的两种方法进行对比分析,图 5(a)、(c)中的异常行为是自行车,它不仅有速度上的异常,也有明显的外观上的异常,基于跳帧和基于补丁的模型都可以很容易检测出异常,但是图 5(b)中的异常为奔跑的人,该异常行为不仅离镜头较远而且还有其他建筑的遮挡,其

32、外观上并不太明显,基于补丁的模型检测此类异常往往效果达不到预期;从图 6 中可以看到,本文提出的两个模型的检测效果相对于基线有些许提高但都不明显,这是因为图中的自行车太薄了而且他的运动是正常的,本文的两个模型以及基线都难以检测此类异常;对于一些外观异常而运动正常的行为如马路中央的石头和人行道上晕倒的人,基于补丁模型的检测效果好于基于跳帧的模型.综上所述,选择42微电子学与计算机2023 年合适的生成伪异常的方法可以有效地提高异常行为检测模型的性能.3.5合并实验针对两种不同地生成伪异常方法,本文考虑将这两种方法结合起来进行实验,首先使用基于跳帧的方法生成伪异常数据,然后在这个伪异常数据上打补丁

33、,将两种方法结合起来生成一组伪异常数据,实验结果如表 2 所示,可以看到相对于基线来说,合并实验的 AUC 值分别有 0.4%、3.6%、1.0%的提升,在三个数据集上的性能都优于基线,但是检测效果都不如引入单个伪异常的效果,这可能是因为两种伪异常相互影响,使模型在训练时产生混淆,影响检测效果,而且引入两种伪异常时需要对训练数据进行两次处理,而引入单个伪异常只需要对训练数据进行一次处理,需要花更长的时间处理数据.表 2 UCSD-Ped2、Avenue 和 ShanghaiTech 数据集上合并实验的 AUC 值Tab.2 The AUC value of the combined exper

34、iment on UCSD-Ped2,Avenue and ShanghaiTech datasetsDatasetsAUC/%UCSD-Ped292.9Avenue85.1ShanghaiTech72.3 4结束语提出了使用伪异常数据引导训练 3D 卷积自编码网络,在不影响正常数据重建的前提下,有效抑制了异常数据的重建,提高了异常检测精度.提出了两种伪异常生成方法,即基于跳帧和补丁的方法.在 3个数据集上的实验结果证明了提出的方法可以有效提升异常行为检测的准确率.当然,模型也存在一些不足,视频异常检测基于重建的方法长期存在类间数据不平衡问题即视频前景和静止背景对象之间的不平衡,单纯优化重建损

35、失会产生对背景重建而不是对前景中感兴趣的对象重建,下一步工作将针对该问题进行研究.参考文献:HASAN M,CHOI J,NEUMANN J,et al.Learning tem-poral regularity in video sequencesC/Proceedings ofthe 29th IEEE Conference on Computer Vision and Pat-tern Recognition.Las Vegas,NV,USA:IEEE,2016:733-742.DOI:10.1109/CVPR.2016.86.1 LUO W X,LIU W,GAO S H.Rememb

36、ering history withconvolutional LSTM for anomaly detectionC/2017 IEEE International Conference on Multimedia andExpo(ICME).Hong Kong,China:IEEE,2017:439-444.DOI:10.1109/ICME.2017.8019325.2 ZHAO Y R,DENG B,SHEN C,et al.Spatio-temporal3(a)UCSD-Ped2 的重构图和误差热图(c)ShanghaiTech 的重构图和误差热图(b)Avenue 的重构图和误差热图

37、图5来自三个数据集的重构图和误差热图Fig.5 Reconstruction plots and error heatmaps from threedatasets 图6对比分析Fig.6 Comparative analysis第 9 期刘辉,等:伪异常引导的卷积自编码网络视频异常检测43 autoencoder for video anomaly detectionC/Proceed-ings of the 25th ACM International Conference on Multi-media.Mountain View:ACM,2017:1933-1941.DOI:10.114

38、5/3123266.3123451.GONG D,LIU L Q,LE V,et al.Memorizing normalityto detect anomaly:Memory-augmented deep autoencoderfor unsupervised anomaly detectionC/Proceedings ofthe 17th IEEE/CVF International Conference on Com-puter Vision.Seoul,Korea(South):IEEE,2019:1705-1714.DOI:10.1109/ICCV.2019.00179.4 PAR

39、K H,NOH J,HAM B.Learning memory-guidednormality for anomaly detectionC/Proceedings of the2020 IEEE/CVF Conference on Computer Vision andPattern Recognition.Seattle:IEEE,2020:14360-14369.DOI:10.1109/CVPR42600.2020.01438.5 CHANDRAKALA S,SHALMIYA P,SRINIVAS V,et al.Object-centric and memory-guided netw

40、ork-basednormality modeling for video anomaly detectionJ.Sig-nal,Image and Video Processing,2022,16(7):2001-2007.DOI:10.1007/S11760-022-02161-Y.6 ZHONG Y H,CHEN X,JIANG J Y,et al.A cas-cade reconstruction model with generalization abilityevaluation for anomaly detection in videosJ.PatternRecognition

41、,2022,122:108336.DOI:10.1016/j.pat-cog.2021.108336.7 TANG Y,ZHAO L,ZHANG S S,et al.Integratingprediction and reconstruction for anomaly detectionJ.Pattern Recognition Letters,2020,129:123-130.DOI:10.1016/j.patrec.2019.11.024.8 ZAHEER M Z,LEE J,ASTRID M,et al.Old is gold:Re-defining the adversarially

42、 learned one-class classifiertraining paradigmC/Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recog-nition.Seattle:IEEE,2020:14171-14181.DOI:10.1109/CVPR42600.2020.01419.9 MAHADEVAN V,LI W X,BHALODIA V,et al.An-omaly detection in crowded scenesC/Proceedings ofthe 2010 IE

43、EE Computer Society Conference on Com-puter Vision and Pattern Recognition.San Francisco,CA,10USA:IEEE,2010:1975-1981.DOI:10.1109/CVPR.2010.5539872.LU C W,SHI J P,JIA J Y.Abnormal event detection at150 FPS in MATLABC/Proceedings of the 14th IEEEInternational Conference on Computer Vision.Sydney,NSW,

44、Australia:IEEE,2013:2720-2727.DOI:10.1109/ICCV.2013.338.11 LUO W X,LIU W,GAO S H.A revisit of sparse codingbased anomaly detection in stacked RNNframeworkC/Proceedings of the 16th IEEE Interna-tional Conference on Computer Vision.Venice,Italy:IEEE,2017:341-349.DOI:10.1109/ICCV.2017.45.12 TRAN D,BOUR

45、DEV L,FERGUS R,et al.Learningspatiotemporal features with 3D convolutionalnetworksC/Proceedings of the 15th IEEE Internation-al Conference on Computer Vision.Santiago,Chile:IEEE,2015:4489-4497.DOI:10.1109/ICCV.2015.510.13 ASTRID M,ZAHEER M Z,LEE J Y,et al.Learning notto reconstruct anomaliesZ.arXiv

46、preprint arXiv:2110.09742,2021.DOI:10.48550/arXiv.2110.09742.14 MATHIEU M,COUPRIE C,LECUN Y.Deep multi-scale video prediction beyond mean square errorC/4thInternational Conference on Learning Representations.San Juan:ICLR,2016.15 KIM J,GRAUMAN K.Observe locally,infer globally:aspace-time MRF for det

47、ecting abnormal activities with in-cremental updatesC/Proceedings of the 2009 IEEEConference on Computer Vision and Pattern Recognition.Miami:IEEE,2009:2921-2928.DOI:10.1109/CVPR.2009.5206569.16作者简介:刘辉男,(1966-),硕士,正高级工程师.研究方向为自然语言处理、计算机视觉、电信系统业务.何如瑾(通讯作者)女,(1998-),硕士.研究方向为计算机视觉、视频异常检测,深度学习.E-mail:.张琳玉女,(1997-),硕士.研究方向为人工智能、目标检测.季娟女,(1997-),硕士.研究方向为图像去噪、深度学习.44微电子学与计算机2023 年

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服