收藏 分销(赏)

锚和通道注意力相结合的车道检测算法_韩尚君.pdf

上传人:自信****多点 文档编号:245660 上传时间:2023-05-06 格式:PDF 页数:6 大小:1.46MB
下载 相关 举报
锚和通道注意力相结合的车道检测算法_韩尚君.pdf_第1页
第1页 / 共6页
锚和通道注意力相结合的车道检测算法_韩尚君.pdf_第2页
第2页 / 共6页
锚和通道注意力相结合的车道检测算法_韩尚君.pdf_第3页
第3页 / 共6页
亲,该文档总共6页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、现代计算机Modern Computer第 28 卷 第 24 期2022年12月25日锚和通道注意力相结合的车道检测算法韩尚君,余艳梅,陶青川(四川大学电子信息学院,成都610065)摘要:车道检测是自动驾驶不可缺少的一部分,但目前车道检测算法在同时保证高准确率和快检测速度方面还有待进一步提高。在LaneATT上改进得到了新的车道检测算法LaneEcaATT。通过引入了通道注意力机制ECAnet对特征图进行处理得到局部特征,然后与全局特征相结合进行车道检测。在两个公开数据集上的实验结果表明,改进后的算法LaneEcaATT在Tusimple数据集上优于对比算法,在CULane数据集上采用Re

2、snet18作为主干网时也优于对比算法,较好地兼顾了高准确率和快检测速度。关键词:锚;通道注意力机制;车道检测文章编号:1007-1423(2022)24-0036-06DOI:10.3969/j.issn.1007-1423.2022.24.0060引言随着传统汽车行业与人工智能技术的结合,各种计算机视觉技术已被证明是保证自动驾驶安全可靠的1不可或缺的一部分。为保证自动驾驶的实用性和有效性,车道检测是至关重要的。随着卷积神经网络(convolutional neural networks,CNN)2的发展,深度学习的快速发展和设备能力的改善(如计算力、内存容量、能耗、图像传感器分辨率和光学器

3、件等)提升了视觉应用的性能和成本效益,并进一步加快了此类应用的扩展。与传统 CV 技术相比,深度学习可以帮助 CV 工程师在图像分类、语义分割、目标检测和同步定位与地图构建等任务上获得更高的准确率,故目前自动驾驶的研究热点已转移到深度学习方法上来3-6。车道检测对于自动驾驶而言是极为重要的一步,首先它可以使车辆行驶在正确的道路上,对于后续的导航和路径规划也是至关重要的,同时它也具有挑战性,因为交通、驾驶环境、障碍物、天气条件等各种内外部复杂条件都会产生巨大影响。对于车道检测的研究主要有两种方法进行解决传统方法和深度学习方法。传统方法主要是通过手工提取特征,然后将其与滤波器进行结合,得到分割的车

4、道线,最后过滤部分错误车道得到最终的检测结果。目前已经有研究使用深度网络来取代手工提取特征来进行车道检测:Huval等7首次将深度学习方法应用于CNN的车道检测;Pan等8通过提出一种相邻像素之间的消息传递机制SCNN显著提高了深度分割方法对车道检测的性能;Li等9提出了一种端到端的高效深度学习系统 LineCNN(LCNN),在实时环境中试验显示,优于当时最先进的方法,显示出更高的效率和效率;Tabelini等10提出了一种基于锚的单阶段车道检测模型 LaneATT,其架构允许使用轻量级主干CNN,同时保持高精度。本文提出的模型LaneEcaATT是在基于锚的单级车道检测模型LaneATT的

5、基础上进行改进,添加了通道注意力机制ECAnet11,将ECAnet和轻量级主干网 Resnet12相结合,在保持 FPS 和MACs指标基本不变的情况下,提高了车道检测的准确率。本文在两个公开数据集 Tusimple13和 CULane8上评估了本文的方法,同时与 LaneATT的结果进行了比较。1相关技术1 1.1 1LaneATTLaneATT算法算法1010LaneATT 是一种基于锚的单阶段模型,用于 车 道 检 测。LaneATT 算 法 主 要 由 主 干 网Resnet、基于锚的特征池化层、注意力机制和结 36韩尚君等:锚和通道注意力相结合的车道检测算法第24期果预测层组成。1

6、 1.1 1.1 1LaneATTLaneATT的主干网的主干网卷积神经网络(CNN2)是一种模拟生物的神经结构的数学模型,通常用于目标检测、图像分割、车道检测等方法的特征提取。理论上CNN网络随着深度越深,就能获得更加丰富的特征信息,但是在实际实验中,网络的深度并不能无限制地增加,网络深度达到瓶颈之后,效果反而更差,准确率也随之降低。通过添加如图1所示的残差块,将多个相似的Residual Block进行串联构成Resnet12。根据不同的需求,残差块有两种形式,一种是图1左边的形式basic block,它由两层3 3的卷积组成,输入输出的维度相同;另一种是图1右边的形式 bottlene

7、ck block,通过使用1 1卷积层实现了先降维再升维的过程,此方法可以降低计算复杂度。Resnet通过引入残差块在一定程度上解决了梯度消失和梯度爆炸的问题,从而能够训练更深的网络。相比于VGG14 网络,Resnet网络不仅更深而且模型的尺寸和参数量更小,LaneEcaATT使用Resnet18、Resnet34、Resnet101作为主干网来提取图片特征。图 1bottleneck block121 1.1 1.2 2基于锚的特征池化层基于锚的特征池化层LaneATT 的池化操作借鉴了 Fast RCNN15的感兴趣区域投影(ROI投影),区别在于检测的时候使用的是线。相比于 LineC

8、NN9只利用了特征图的边界,LaneATT 在一定程度上可以使用所有的特征图,故LaneATT可以使用更小的主干网和更小的接受域。一个锚就定义了一个候选点集F,将锚所构成虚线上的特征进行串联,对于超出图片边界的点做补零操作以保证串联后的维度恒定,vloci RCF HF10。对于每一个yj=0,1,2HF-1,xj10 的计算公式如式(1)所示:xj=1tan()yj-yoback+xoback(1)其中(xo,yo)是锚线的原点,是锚线的斜率,back是主干网的全局步长。1 1.1 1.3 3LaneATTLaneATT的注意力机制的注意力机制对于大多数轻量级模型来说,获取的是局部特征向量。

9、但是在某些复杂的场景下,例如有其他物体遮挡视野或目标部分消失的情况下,局部特征可能无法预测车道是否存在以及其位置。为解决这一问题LaneATT提出了一种新的注意力机制Latt10,它利用局部特征来生成附加特征,将其和局部特征结合得到全局特征。对于每一个局部特征向量vloci10,当i j的时候,输出一个权重i,j10,如公式(2)所示:i,j=softmax()Latt()vlocij,i j0,i=jsoftmax()Latt()vlocij-1,i j(2)之后便可得到全局特征向量vgloi10,如公式(3)所示:vgloi=ji,jvloci(3)1 1.2 2ECAnetECAnet模

10、型模型1111通道注意力机制可以提升CNN网络的性能,但现有的算法为获得更加优秀的效果,大都选择复杂的注意力模块而忽略了算法应用于轻量级模块和实时运算的情况11。SENet16的降维会给通道注意力机制带来副作用,并且没有必要获取通道之间的依赖关系。ECAnet将原始的 SENet与它的三个都没有降维的变体(SEVar1,SEVar2 和SEVar3)进行了对比实验:SEVar1虽然没有参数但是性能仍然优于 SENet,说明在提高深度 CNN 的性能上面通道注意力是有用的;SEVar2在每个通道独立地学习权重且参数较少,结果也是优于SENet,说明通道及其权重需要直接对应,而且避免降维比非线性通

11、道依赖更加重要;SEVar3 比在 SE块中少使用一个FC层进行降维,结果显示性能 37现代计算机2022年更好11。综合ECAnet的实验可以表明,避免降维对于通道注意力机制的性能有很大的提升,故ECAnet在SENet的基础上进行改进,ECAnet通过一维卷积来实现了一种不需要降维的局部交叉通道交互策略。ECAnet的模型结构如图 2所示。图 2ECAnet结构111 1.3 3锚和通道注意力相结合的车道检测算法锚和通道注意力相结合的车道检测算法LaneEcaATTLaneEcaATT本文提出的算法模型LaneEcaATT(如图3所示)在 LaneATT 的基础上添加了 ECAnet(如图

12、 3圆角矩形所示),以提取局部特征。模型的输入图像经过主干网Resnet和ECAnet提取特征,利用基于锚的特征池化层提取感兴趣的锚线,进而生成局部特征,局部特征通过注意力机制生成全局特征,将局部特征和全局特征进行结合,最后将组合特征传递给全连接层得到最终预测的车道。图 3LaneEcaATT的模型图2实验2 2.1 1实验参数设置实验参数设置本文的方法在两个最常使用的车道检测数据集(Tusimple13和 CULane8)上进行测试,两个数据集的具体信息如表1所示,所有的实验都使用了数据集的创建者默认的参数。表 1数据集信息数据集TusimpleCULane训练集326888880验证集35

13、89675测试集278234680最大车道数目54实验中的所有输入图像都被调整为HIWI=360 640像素,对于两个数据集都使用 Adam优化器,Tusimple训练100个epochs,CULane训练15个epochs,通过随机的平移、旋转、缩放和水平翻转来进行数据增强。本文实验部分的效率指标分为每秒帧数(FPS)和乘积累加运算(MACs)。2 2.2 2TusimpleTusimple数据集上的实验数据集上的实验2 2.2 2.1 1TusimpleTusimple数据集数据集Tusimple13是一个只包含高速公路场景的车道检测数据集,通常相对于街景来说,这个场景作为车道检测会更容易

14、。但是它仍然是在车道检测工作中使用最广泛的数据集之一。所有的图像都有1280 720像素,最多有5个车道。2 2.2 2.2 2TusimpleTusimple数据集上的评价指标数据集上的评价指标在 Tusimple 数据集上三个评价指标分别是错误发现率(FDR)、假阴性率(FNR)和准确性(Accuracy)。准确性Accuracy如公式(4)所示:Accuracy=clipCclipclipSclip(4)其中,Cclip是切片中正确预测车道的点数,Sclip是图片中总的点数,预测点必须是在真实图像点的20个像素内才能被认为是正确的点。2 2.2 2.3 3TusimpleTusimple

15、数据集上的实验结果数据集上的实验结果表2是本文模型在Tusimple数据集上得到的检测结果。可以看出,本文的方法LaneEcaATT在MACs和Params上基本上没有任何增加,FPS也基本持平。在准确率上本文均优于LaneATT,甚至在使用Resnet18作为主干网的情况下,比LaneATT 使用 Resnet34 的准确率还要高,但MACs减少了50%,Params减少了45%,FPS提升了 44%。虽然在 Resnet18 和 Resnet34 上 FDR 38韩尚君等:锚和通道注意力相结合的车道检测算法第24期比较高,但是在FNR方面则是都优于LaneATT。图 4 是 LaneEca

16、ATT 和 LaneATT 在 Tusimple 上的检测效果对比,LaneEcaATT的检测效果要略优于LaneATT的检测效果。结合表2和图4,在Tusimple数据集上,本文算法的准确率都得到了提升,尤其是在Resnet18 上达到了 LaneATT 在 Resnet34 上的准确率。表 2Tusimple数据集结果算法模型LaneATT(resnet18)LaneATT(resnet34)LaneATT(resnet101)LaneEcaATT(resnet18)LaneEcaATT(resnet34)LaneEcaATT(resnet101)MACs/G9.33518.00537.5

17、499.33518.00537.550Params/M12.01922.12743.44112.01922.12743.441FPS1901366619513565Accuracy/%95.5795.6395.8495.6495.795.87FDR/%3.563.525.095.745.14.88FNR/%3.012.922.642.642.492.52图 4Tusimple数据集实验结果(左中右依次是原图、LaneATT、LaneEcaATT;上中下分别是Resnet18、Resnet34、Resnet101;黑色线条是真实车道,灰色线条是检测结果)2 2.3 3CULaneCULane数据

18、集上的数据集上的实验实验2 2.3 3.1 1CULaneCULane数据集数据集CULane8是最大的公开车道检测数据集之一,也是最复杂的数据集之一。所有图像大小均为1640 590像素,测试图像分为九类,包含正常、拥挤、夜间、无可见线等。2 2.3 3.2 2CULaneCULane数据集上的评价指标数据集上的评价指标在CULane上有三个评价指标Precision、Recall、F1。Precision是计算正确预测占整个正确预测与错误预测之后的百分比,如公式(5)所示:Precision=TPTP+FP(5)Recall是计算正确预测占正确预测与假阳性之和的比例,如公式(6)所示:Re

19、call=TPTP+FN(6)在式(5)、式(6)中,TP是正确预测车道的数目,FP是错误预测车道的数目,FN是假阴性的数目。F1 是基于 IOU(intersection over union)来进行判断的。IOU的评价标准是根据两个区域的交集占比,官方将车道线视为30像素值宽的线,如果预测出来的车道和真实车道的 IOU 大于0.5,那么就会被认为预测正确,F1如公式(7)所示:F1=2*Precision*RecallPrecision+Recall(7)2 2.3 3.3 3CULaneCULane数据集上的实验结果数据集上的实验结果考虑到CULane数据集图片大小和Resnet深度,在

20、 CULane 数据集上本文在 Resnet18 上将ECAnet 的 一 维 卷 积 核 大 小 k 保 持 为 3,在Resnet34 和 Resnet101 将 k 修改为 5,整个 CULane 数据集的测试结果见表 3,表 4 展示了从normal到night的九类场景的F1参数数据。通过表3、表4可以得到,Resnet18运用本文方法后在Recall上提升0.4个百分点,hlight上提升 1.66 个百分点,arrow 上提升 1.24 个百分点,在curve上提升1.15个百分点,在night上提升 0.99 个百分点。Resnet34 上运用本文方法后在 Precision上

21、提升 0.04个百分点,cross错误量降低了 28 个百分点,但是 F1 值有所下降。Resnet101上运用本文方法后在Recall上提升了1.04 个百分点,在 noline 上提升了 0.88 个百分点,在 curve 上提升了 1.26 个百分点。图 5 是LaneEcaATT和LaneATT在CULane上的检测效果对比。结合表3、表4和图5的结果,可以看出在CULane数据集上,本文算法在Resnet18网络结 39现代计算机2022年构上改进效果较好。图 5CULane数据集实验结果(左中右依次是原图、LaneATT、LaneEcaATT;上中下分别是Resnet18、Resn

22、et34、Resnet101;黑色线条是真实车道,灰色线条是检测结果)3结语本文改进的车道检测算法LaneEcaATT不仅有着高准确率,同时还保持快速的检测速度。在 Tusimple数据集上,本文方法比原始模型检测准确率更高,甚至可以用更浅的主干网实现不错的检测效果。在CULane数据集上,本文方法在Resnet18网络结构下表现优于原方法,但是在另外两种网络结构下的表现有待提升,将在后期研究中进一步改进。参考文献:1 YURTSEVER E,LAMBERT J,CARBALLO A,etal.A survey of autonomous driving:common practices an

23、d emerging technologiesJ.IEEE Access,2020,8:58443-58469.2 HOU Y,MA Z,LIU C,et al.Learning lightweightlane detection CNNs by self attention distillationCProceedings of the IEEE/CVF InternationalConference on Computer Vision,2019:1013-1021.3 KRIZHEVSKY A,SUTSKEVER I,HINTON G E.ImageNet classification

24、with deep convolutional neural networksJ.Communications of the ACM,2017,60(6):84-90.4 BADRINARAYANAN V,KENDALL A,CIPOLLA R.Segnet:a deep convolutional encoderdecoderarchitecture for image segmentation J.IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(12):2481-2495.5 WANG C Y,B

25、OCHKOVSKIY A,LIAO H Y M.ScaledYOLOv4:scaling cross stage partial networkC Proceedings of the IEEE/CVF Conference onComputer Vision and Pattern Recognition,2021:13029-13038.6 YANG A J,CUI C,BRSAN I A,et al.Asynchronous multi-view slam C 2021 IEEE InternationalConference on Robotics and Automation(ICR

26、A).IEEE,2021:5669-5676.7 HUVAL B,WANG T,TANDON S,et al.An empirical evaluation of deep learning on highway drivingEB/OL.CoRR abs/1504.01716,2015.8 PAN X,SHI J,LUO P,et al.Spatial as deep:spatial表 3整个CULane数据集的结果算法模型LaneATT(resnet18)LaneEcaATT(resnet18)LaneATT(resnet34)LaneEcaATT(resnet34)LaneATT(res

27、net101)LaneEcaATT(resnet101)MACs/G9.3359.33518.00518.00537.54937.550Params/M12.01912.01922.12722.12743.44143.441FPS1901951361356665Precision/%82.582.7883.0183.0581.8880.14Recall/%68.8769.271.2170.3469.7770.81F1/%75.0775.3876.6676.1775.3475.18表 4CULane数据集九类场景的F1结果算法模型LaneATT(Resnet18)LaneEcaATT(Resne

28、t18)LaneATT(Resnet34)LaneEcaATT(Resnet34)LaneATT(Resnet101)LaneEcaATT(Resnet101)normal91.0991.2692.192.0691.2391.52crowd72.9972.9375.0473.9173.0873.02hlight65.7267.466.5365.4867.4165.02shadow70.9170.9578.1572.1771.0467.64noline48.347.7349.3948.8148.4749.35arrow85.4286.6688.3887.1486.8486.33curve63.3

29、664.7867.867.4264.3265.58cross11701028133095811601508night68.9369.9270.6870.3670.0170.11 40韩尚君等:锚和通道注意力相结合的车道检测算法第24期CNN for traffic scene understandingCProceedings of the AAAI Conference on Artificial Intelligence,2018,32(1).9 LI X,LI J,HU X,et al.LineCNN:endtoend traffic line detection with line p

30、roposal unitJ.IEEETransactions on Intelligent Transportation Systems,2019,21(1):248-258.10 TABELINI L,BERRIEL R,PAIXAO T M,et al.Keep your eyes on the lane:realtime attention guided lane detection C Proceedings of the IEEE/CVF Conference on Computer Vision and PatternRecognition,2021:294-302.11 WANG

31、 Q L,WU B G,ZHU P F,et al.ECANet:efficient channel attention for deep convolutionalneural networksC2020 IEEE/CVF ConferenceonComputerVisionandPatternRecognition(CVPR).Seattle,WA,USA,2020:11531-11539.12 HE K,ZHANG X,REN S,et al.Deep residuallearning for image recognitionCProceedings ofthe IEEE Confer

32、ence on Computer Vision and Pattern Recognition,2016:770-778.13 Tusimple.Tusimple benchmarkEB/OL.2020-01-05.https:/ benchmark.14 SIMONYAN K,ZISSERMAN A.Very deep convolutional networks for large scale image recognitionCInternational Conference on Learning Representations(ICLR),2015:1-14.15 REN S,HE

33、K,GIRSHICK R,et al.Faster RCNN:towards realtime object detection with region proposal networksJ.IEEE Transactions on PatternAnalysis and Machine Intelligence,2017,39(6):1137-1149.16 HU J,SHEN L,SUN G.Squeezeandexcitation networks C Proceedings of the IEEE Conference onComputer Vision and Pattern Rec

34、ognition,2018:7132-7141.作者简介:韩尚君(1998),男,四川南充人,硕士,研究方向为图像处理通信作者:余艳梅(1975),女,四川广安人,博士,副教授,硕导,研究方向为图像处理,Email:陶青川(1972),男,四川南充人,博士,副教授,硕导,研究方向为计算机视觉收稿日期:2022-07-06修稿日期:2022-08-11Lane Detection Algorithm Combining Anchor and Channel AttentionHan Shangjun,Yu Yanmei,Tao Qingchuan(College of Electronics a

35、nd Information Engineering,Sichuan University,Chengdu610065)Abstract:Lane detection is an indispensable part of automatic driving,but the current lane detection algorithm needs to befurther improved in terms of ensuring high accuracy and fast detection speed.A new lane detection algorithm LaneEcaATT

36、 is improved based on LaneATT.By introducing the channel attention mechanism ECAnet,the local features are obtained by processingthe feature map,and then combined with the global features for lane detection.The experimental results on two public datasetsshow that the improved algorithm LaneEcaATT is

37、 better than the comparison algorithm on the Tusimple dataset,and is also betterthan the comparison algorithm when Resnet18 is used as the backbone network on the CULane dataset,which gives better consideration to high accuracy and fast detection speed.Keywords:anchor;channel attention mechanism;lane detection 41

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 品牌综合 > 临存文档

移动网页_全站_页脚广告1

关于我们      联系我们       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号  |  icp.png浙ICP备2021020529号-1 浙B2-2024(办理中)  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服