ImageVerifierCode 换一换
格式:PDF , 页数:8 ,大小:2.22MB ,
资源ID:649697      下载积分:10 金币
验证码下载
登录下载
邮箱/手机:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/649697.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  
声明  |  会员权益     获赠5币     写作写作

1、填表:    下载求助     索取发票    退款申请
2、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
3、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
4、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
5、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
6、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
7、本文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。

注意事项

本文(基于语义分割与道路结构的车道线检测方法.pdf)为本站上传会员【自信****多点】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4008-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

基于语义分割与道路结构的车道线检测方法.pdf

1、收稿日期:2022-07-09*国家自然科学基金面上项目(41671441)、湖北省教育厅科学技术研究计划中青年人才项目(Q20143005)、湖北省高校中青年科技创新团队项目(T201818)、湖北省教育厅科研计划项目(B2021261)资助第一作者简介:丁玲(1979),博士,副教授.研究方向:智能交通、计算机视觉。E-mail: 通信作者:肖进胜(1975),博士,副教授.研究方向:智能交通、计算机视觉。E-mail:基于语义分割与道路结构的车道线检测方法*丁玲1,2肖进胜2李必军3李亮2陈宇1胡罗凯1(1.湖北第二师范学院计算机学院武汉 430205;2.武汉大学电子信息学院武汉 43

2、0072;3.武汉大学测绘遥感信息工程国家重点实验室武汉 430072)摘要:车道线的准确检测对于智能辅助驾驶和车道偏离预警系统的性能有着非常重要的作用,当前的传统研究方法普遍存在对复杂道路环境的适应性不够,检测精度有待提高等问题。针对复杂交通环境的车道线检测问题,充分考虑到复杂道路结构的语义信息,提出了1种基于语义分割与道路结构的车道线检测方法。该算法采用Encoder-Decoder的基础网络结构模式,通过改进实现语义分割,利用池化层的索引功能,以反池化的方式进行上采样,在每个上采样之后连接多个卷积层。然后再使用标准交叉熵损失函数训练分割网络,利用深度学习方法得到排除外部环境干扰的道路分割

3、图像,并对分割后的道路图像进行透视变换,采用Hough变换和边缘点的参数空间投票,快速提取和修正车道线左右边缘点,将提取的边缘点进行贝塞尔曲线拟合,实现车道线的平滑显示。提出的算法在相关车道线数据集上进行了训练和测试,与基于参数空间投票方法相比,准确度提升5.1%,时间平均增加了8 ms;与卷积神经网络(convolutional neural networks,CNN)方法相比,准确度降低了1.75%,时间平均减少了6.2 ms。测试结果表明,利用提出的语义分割编解码网络有助于优化模型结构,在满足实时检测要求的基础上降低了对计算硬件资源的需求。关键词:智能交通;车道线检测;语义分割;道路结构

4、;参数投票空间中图分类号:U495文献标识码:Adoi:10.3963/j.jssn.1674-4861.2023.03.011Lane Detection Method Based on Semantic Segmentationand Road StructureDING Ling1,2XIAO Jinsheng2LI Bijun3LI Liang2CHEN Yu1HU Luokai1(1.School of Computer Science,Hubei University of Education,Wuhan 430205,China;2.School of ElectronicInf

5、ormation,Wuhan University,Wuhan 430072,China;3.State Key Laboratory of Information Engineering inSurveying,mapping and Remote Sensing,Wuhan University,Wuhan 430079,China)Abstract:The accurate detection of lane markings plays a crucial role in the performance of intelligent assisted driv-ing and lane

6、 departure warning systems.Current traditional research methods generally lack adaptability to complexroad environments and need to improve detection accuracy.To address the problem of lane marking detection incomplex traffic environments,a lane marking detection method based on semantic segmentatio

7、n and road structureis proposed.The algorithm adopts an Encoder-Decoder network architecture to improve semantic segmentation.Ituses the indexing function of pooling layers to perform upsampling in a de-convolutional manner,connecting multi-ple convolutional layers after each upsampling.The segmenta

8、tion network is then trained using the standardcross-entropy loss function to obtain road segmentation images that exclude external environmental interference.Perspective transformation is applied to the segmented road images,and Hough transform and parameter space vot-ing of edge points are used to

9、 quickly extract and correct the left and right boundary edge points of the lane mark-ings.The extracted edge points are fitted using Bezier curves to achieve smooth display of the lane markings.The基于语义分割与道路结构的车道线检测方法丁玲肖进胜李必军李亮陈宇胡罗凯103交通信息与安全2023 年3 期第 41卷总 244期0引言随着经济和科技的发展,汽车作为日常的交通工具,得到了迅速的发展和普及,

10、在汽车数量迅猛增长的同时,交通事故发生数量也在不断增加,给人们的生命财产造成了极大的损失。所以,行车安全问题也逐步受到消费者和生产商的重视,这也使得高级驾驶辅助技术应运而生。其中车道线检测技术作为智能辅助驾驶系统的基础模块更是受到人们的关注1。1998年开始,研究人员提出了各种检测车道线的方法。Abramov等2设计了基于特征融合的多车道感知方法,融合各个信息源特征来识别车道线。Li等3设计了1种改进线段检测过程的Bresen-ham投票空间方法来对车道线进行检测。在以上的传统方法中,都存在着适应性不强、稳定性差的问题。从2018年始,基于深度学习的车道线检测方法不断涌现,比较典型的有SegN

11、et网络,其通过卷积网络(即编码器)分层抽象提取特征,利用反卷积网络(即解码器)4上采样重建分段图像。另外,包含有LaneNet和H-Net这2个网络模型的端到端车道线检测算法5,和基于深度学习语义分割的车道线检测方法6,它们虽然对车道线检测效果好,但是计算量大,对于硬件要求高,耗时长,难以直接应用于实时驾驶环境。针对传统方法存在着适应性不强及稳定性差的问题,而深度学习方法存在着计算量过大,对硬件资源需求过高,并且耗时长,难以直接应用于实时行车环境的问题,本文提出将传统车道线检测方法与深度学习方法相结合的方案。利用前者的鲁棒性排除阴影、遮挡、损坏等不利因素的干扰,再利用深度学习提取特征的高抗干

12、扰性,使用编解码网络对图像进行语义分割前处理,实现图像中车道线与背景的分离。然后利用传统拟合算法的拟合速度优势进行处理,拟合出检测到的车道线。1检测方法1.1车道线检测算法框架传统的车道线检测算法通常包含4个步骤:图像预处理、特征提取、模型拟合和信息反馈。然而,图像预处理在传统方法上很难完全排除干扰,导致在特征提取过程中依然存在干扰点,严重影响后续的模型拟合和信息反馈。对此,将提出1种传统方法与深度学习方法相结合的新途径来克服上述问题,具体方法的算法框架见图1。由图1可见:首先进行基于编解码网络的车道线特征提取,将图像中的车道线与其他背景进行二元分割。在这个过程中采用现有的编码器-解码器结构模

13、式6,见图2,然后在此基础上进行改进,只保留该算法的解码器中编码器上采样分支,实现语义分割。它的具体参数设置见表 1,编码器丢弃了VGG16网络的全连接层,以及最后1个22最大池化层,编码器末端3个卷积层设置为空洞卷积。proposed algorithm was trained and tested on relevant lane marking datasets.Compared to the parameter space vot-ing method,it achieved a 5.1%increase in accuracy with an average increase of

14、8 ms in time.Compared to the con-volutional neural networks(CNN)network method,it had a 1.75%decrease in accuracy with an average decrease of6.2 ms in time.The test results demonstrate that the proposed semantic segmentation encoding-decoding networkhelps optimize the model structure and reduces the

15、 demand for computing hardware resources while meeting re-al-time detection requirements.Keywords:intelligent traffic;lane detection;semantic segmentation;road structure;parameter voting spaceDilated convolutionMax-pooling Upsampling+ReluConvolutionSoftmaxbezier拟合车道内侧边缘点参数空间投票边缘特征点提取0100200300400500

16、050100150200250图1本文算法结构框架图Fig.1Algorithmicstructureframework diagram104表1语义分割网络结构具体参数设置表Tab.1Specific parameter setting of the semanticsegmentation network structure类型covl_1covl_1Pool1,max,indicescovl_1covl_1Pool2,max,indicescovl_1covl_1covl_1Pool3,max,indicescovl_1covl_1covl_1Pool4,max,indicesDilat

17、ed conv5_1Dilated conv5_2Dilated conv5_3卷积核3333223333223333332233333322333333步长11211211121112111输出5122566451225664256128642561281282561281281286412812864256128642561286425664322566432512643251264325123216512321651232165123216512利用池化层的索引功能,以反池化的方式进行上采样,每个上采样之后连接着多个卷积层,使用标准交叉熵损失函数训练分割网络7。然后进行基于道路结构的车道

18、线检测后处理,利用车道线在道路图像中的梯度变化特征,采用基于扫描线的边缘梯度检测方式8,从左到右扫描获得上升边缘点与下降边缘点。接着将筛选后的上升点与下降点分别用于定义的参数空间做变换,比较变换投票的结果9,以获取每条车道的边缘线。根据位置关系与投票数,确定当前车道左、右内测边缘线上的特征点。最后依据提取出的当前图像边缘点,将这些特征点利用贝塞尔曲线进行拟合,得到当前车道的左、右车道线内测的边缘10。1.2语义分割排除背景干扰深度学习编解码网络算法采用Ren等11提出的编码-解码结构模型来进行语义分割。其中编码器部分提取车道线特征使用VGG16网络作为基础模型,为了保持特征图的分辨率并考虑算法

19、的运行速度,将 VGG16 网络的全连接层移除,而只保留VGG16中前4个22最大池化层,同时利用空洞卷积来扩大感受野,很大程度减少了参数数量,并且速度得到了较大的提高。编码器将第11、第12和第13卷积层设置为空洞卷积,空洞率设置为2。解码器有2个分支,只使用其中1个编码器的上采样分支,以达到语义分割的目的12。这个分支主要使用最大池化层的索引功能(pooling indices),以 反 池 化 方 式 进 行 上 采 样(Upsampling)。它是由4个Upsampling层和10个卷积层组成,每个Upsampling层之后再通过激活函数ReLU来处理梯度消失问题,并且使用标准交叉熵损

20、失函数训练分割网络。语义分割后的结果将车道线与背景进行分离,得到相应的二元分割图像13。编码是本算法中用来提取图像特征的部分,它的作用是将背景与车道线进行分离。它采用VGG16 的架构来实现,主要由卷积层和池化层组成,其具体结构见图3。在图3中,主要以VGG16为基础,将其划分为不同块(block),从前向后可以划分为block1-block5,每1块内包含若干卷积层与1个22池化层。以block4为例,包含3个卷积层与1个池化层。并且同1个块内,卷积层的通道数是相同的,以block2为例,“33cov_1,512”表示卷积核为33,通道数是128。每个块下方的size表示输出的大小。输入的训

21、练样本分辨率为512256,使用滤波器组进行卷积以生成1组特征图,接着对它们进行质量归一化,再利用激活函数线性校正函数。然后,Dilated convolutionMax-poodingUpsampling-ReluConvolutionSoftmaxSemantic SegmentationInstance Segmentation图2解码器网络结构(上分支完成语义分割)Fig.2Decodernetworkstructure(upperbranchcompletessemanticsegmentation)基于语义分割与道路结构的车道线检测方法丁玲肖进胜李必军李亮陈宇胡罗凯105交通信息与

22、安全2023 年3 期第 41卷总 244期将最大池化用于2X下采样,并在下采样之前为每个特征图存储每个池窗口中最大特征值的位置。下采样使运行中的滤波器具有较大的感受野,有利于收集更多的上下文信息,并提高分割的准确性。在最后的3个卷积层中,采用1个空洞卷积,使用孔比为2的孔代替普通的卷积运算14。空洞卷积提供了1种有效的机制来控制视野,可以扩展过滤器的接收范围,并且还可以利用下采样来包含更广泛的上下文信息,从而避免下采样丢失边缘分辨率15。利用空洞卷积在扩大感受野的同时,并不需要增加其它的计算成本与额外参数。在结合移除不同数目的最大池化层的情况下,通过反复实验得出,当只去掉最后1个最大池化层时

23、,对车道线的检测效果最好,特别是能够减少漏检的情况,具体的分割效果见图4。(c)前方车辆少情况下的分割效果(d)前方车辆多情况下的(a)前方车辆少的情况(b)前方车辆多的情况图4分割效果图Fig.4imagesegmentation1.3基于道路结构的车道线检测方法通过上述语义分割后,将车道线与背景分割开来,在此基础上,采用基于道路结构的参数空间投票传统方法获取车道线的内测边缘,为后面的左右偏移测距提供基础16。根据道路几何学的特征建立车道线模型,计算出车道线的几何参数,并利用车道线的特征排除干扰线,得到当前车道的内边界。基于道路结构的车道线算法主要分为3步:对感兴趣区域进行定义;对基于边缘与

24、距离层次拟合模型的定义;提取车道标记的信息,并建立车道模型,输出结果。边缘点强度定义为边缘强度值为最大值或超过阈值的像素,以及最小值或低于阈值的像素。处理过程是对感兴趣区域逐行扫描,计算基于水平行扫描线上的每个像素边缘强度,见式(1)。E(ij)=-k=-L-1I(ij+k)+k=1LI(ij+k)(1)式中:i为图像行数;j为图像列数;E(i,n)为像素的边缘强度;I(i,j+k)为像素值;L为每行的滤波长度,具体值主要依据扫描线的分辨率与实验所得。检测结果分为2类边缘点:当梯度E(ni)Th1时,是上升边缘点;当E(ni)Th10else(2)Pdown(xy)=DE(ni)Th20els

25、e(3)上述的语义分割将车道线与背景进行分离,但仍有可能存在着噪点,故进行下 1 步参数空间投票。具体效果见图5,其中图5(a)为原图;图5(b)为语义分割结果图;图5(c)为特征提取图;图5(d)为结果在原图中的展示。基于传统的Hough变换想法17,定义了适合于2类边缘点的参数投票空间,快速提取左右边界。假设图像中直线的偏转角在设定的某个范围(a,b)内。已知1个边缘点,利用公式=xcos+ysin计算出所有的经过该点的且偏转角范围在(a,b)之间的直线的偏移量,Hough原理空间见图6(a)。结合过滤后的可信边缘点,构成1个离散Hough变换投票参数空间,见图6(b)。33 Dilate

26、d cov5_151233 cov_151233 cov_125633 cov_112833 cov_16433 cov_16433 cov_112833 cov_125633 cov_125633 cov_151233 cov_151233 Dilated cov5_351233 Dilated cov5_2512Size 12864Size 6432Size 3216Size 256128Size 512256pool1,max,indicespool2,max,indicespool3,max,indicespool4,max,indices图3编码器网络结构图Fig.3Encodern

27、etworkstructure106(XY)(XY)(a)Hough原理空间(b)参数空间投票图图6Hough原理图和参数空间投票图Fig.6Hough Schematicandparameterspacevoting在投票结果中取前10,然后在这10个结果中取与上帧相近的,同时左车道线在投票中存在1条投票右线与其偏转角相差小于5,偏移量相差小于10的线作为该阶段的检测左车道线结果,称之为左线对称条件。右车道线同理。然后根据所得到的直线,就可以扫描提取到上升沿与下降沿边缘点,最后过滤得到需要的当前车道内侧边缘点,具体见图7。其中,图7(a)为结果在原图上的效果呈现,图7(b)为特征点在语义分割

28、图上的显示。(a)结果在原图上的效果呈现(b)特征点在语义分割图上的显示图7内侧边缘点提取图Fig.7Inneredgepointextraction1.4检测结果拟合将提取的边缘特征点进行贝塞尔曲线拟合生成曲线簇,计算曲线簇与边缘点距离,从中挑选与边缘点距离最近的贝塞尔曲线,拟合出车道18,具体操作步骤如下。1)根据特征点横坐标范围划分左上升边缘点集、右上升边缘点集、左下降边缘点集、右下降边缘点集。以左上升边缘点集为例,取边缘点集内纵坐标最大、最小的2点为二阶贝塞尔曲线的起始控制点和终止控制点,取纵坐标最接近点集纵坐标中位数的点为确定贝塞尔曲线控制点的“特殊点”,拟合出的曲线必然经过该特殊点

29、与起始控制点、终止控制点。2)运用以上3点反向计算贝塞尔曲线的控制点集,将点集分别作为二阶贝塞尔曲线的中间控制点,以此获得了起始、终止和中间控制点,可拟合出过已知3个边缘特征点的贝塞尔曲线簇。已知起始控制点P0、终止控制点P2、特殊点P1,控制点P的计算具体见式(4)(5)。x=(2t-t2-1)x0+x1-t2x2/(2t-2t2)y=(2t-t2-1)y0+y1-t2x2/(2t-2t2)t0.30.7(4)x=(1-t)2x0+2t(1-t)x+t2x2y=(1-t)2y0+2t(1-t)y+t2y2t01(5)3)计算边缘点到拟合曲线的距离,对图像进行扫描。当拟合曲线横坐标与边缘点坐标

30、相等时,计算对应点的最小二乘误差。与边缘点集的最小二乘误差和最小的贝塞尔曲线即拟合车道效果最好的线。最小二乘误差和的计算见式(6)。i=0ni2=i=0n(yi-yci)2(6)4)画出挑选的贝塞尔曲线,即提取出的车道线,见图8。图8检测结果Fig.8detectionresult2实验结果及分析2.1实验环境和数据集实验的软件环境:Ubuntu16.04(x64)、Python3.5、cuda-9.0、cudnn-7.0、TensorFlow1.10;硬件配置:电脑型 号 华 为 matebook14,处 理 器 为 Intel Core i5-10210U CPU 1.60CHz 2.11

31、 Ghz,内 存 为 8GB。配备有NVIDIAGeforce MX250显卡。实验结果主要是在实际道路采集的数据上进行测试得到(数据主要来自武汉市区和武汉市周边道路数据),其中包含有多种环境,如白天、高速、夜晚、阴雨等场景。同时,在这些场景里面,有些包括有弯道、遮挡等路况。实验结果以运行速度与准确度进行评价。同时,以2019中国智能车挑战赛数据作为测距评判数据(数据大小0.6 GB,对应的嵌入像素映射特征空(a)原图(b)语义分割结果(c)特征提取(d)结果图5语义分割与边缘特征提取图Fig.5Semanticsegmentationandedgefeatureextractionplots

32、基于语义分割与道路结构的车道线检测方法丁玲肖进胜李必军李亮陈宇胡罗凯107交通信息与安全2023 年3 期第 41卷总 244期间维度分别为3和4,d设为3,v设为0.5)。识别率的计算是通过对每个视频序列做的统计,假设某个视频的序列的总帧数为M,正确识别的帧数为TP,则识别率P的计算见式(7)。P=TPM(7)2.2实验结果分析实验将清晰、典型的白天、雨天、夜晚视频序列输入到算法中进行检测,结果见表2。表2车道线识别统计Tab.2Lanerecognitionstatistics视频序号白天1白天2白天3白天4白天5白天6雨天夜晚总帧数1 6531 7841 4521 6451 5421 2

33、657931 203识别率/%93.894.193.694.393.292.987.285.9平均耗时/ms30.531.231.830.930.431.331.631.9由表2可见:算法平均每秒识别30帧左右,平均识别率为93.5%。代表性实验结果见图913。(a)电动车干扰(b)栏杆干扰(c)车辆干扰图9复杂街道环境中实验结果图Fig.9Experimentalresultsinacomplexstreetenvironment(a)强光照干扰(b)阴影干扰图10强光与阴影下实验结果图Fig.10Experimentalresultsinstronglightandshadow(b)车辆干

34、扰(c)车辆遮挡(a)弯道图11隧道中实验结果图Fig.11Experimentalresultsinthetunnel(b)雨天弯道(a)积水干扰图12雨天实验结果图Fig.12Experimentalresultsof rainydays(b)高架上的弯道(c)高架正常道路(a)有隔音板图13夜间实验结果图Fig.13Resultsof thenightexperiment图9中的实验结果代表在有较多行人和车流场景下的检测效果。图9(a)为有电动车及骑手干扰的情况;图9(b)为有栏杆干扰情况;图9(c)为有前方车辆和侧方车辆干扰时的情况。图10主要展示的是有和阴影条件的车道线检测效果。图1

35、0(a)为,在白天较强光照下,前方和侧方都有车辆时情况;图10(b)为阴影干扰情况下的效果。图11主要展示了在隧道环境中的检测效果,含有弯道、车辆干扰和车辆遮挡的情况。图12为雨天环境检测效果。图12(a)为路面含有积水情况,图12(b)为雨天弯道情况。图13为夜间高架桥上的场景。图13(a)为高架桥上有隔音板的情况,图13(b)为高架桥上弯道情况,图13(c)是高架桥上直道情况。同时,在实验统计结果时还发现存在有漏检与误检的情况,具体结果见图14。(a)误检(b)漏检图14误检与漏检实验结果Fig.14Resultsof mistestandmissedtestexperiments其中,图

36、14(a)是将光线漫射的近似车道线路径误检测为车道线,通过回顾语义分割结果发现,在语义分割时就出现错误。将非车道线分割出来了,但是没有将车道线分割出来。图14(b)右边是没有检测到车的道线,原因是车道线没有被当成背景进行分割。误检主要是由于在训练的时候模型制作不够精确,即在特征相似时容易分割出错;漏检主要是没有考虑一些特殊的道路标记情况,没有体现出数据集的多样性。2.3算法对比本部分的对比主要分为2个模块,第1个模块是与文献19(基于投票参数空间)的传统方法进行对比;第2个模块是与文献6进行对比。本文算法是利用传统算法进行后处理得到最终结果,且更注重识别率的结果。108具体检测效果见图15,其

37、中图15(a)为文献19的检测结果,图15(b)为本文算法的检测结果。从结果看来,文献19算法受环境和车辆的行驶车道变化影响较大,在雨天,雨水滞留的路面反光对检测效果影响很大,而本文算法检测效果依然较好,检测结果所拟合出来的车道线更贴近真实的车道线,说明本文算法具备较好的鲁棒性。基于参数空间投票方法的稳定性能依赖于帧间关系的约束,而本文算法依赖于自身的检测语义分割,即网络的构建与模型的训练。(b)本文算法(a)文献19算法图15本文算法与文献19检测对比图Fig.15Thisalgorithmcomparesthetestwithdetectioninthereference19(a)本文算法

38、检测效果(b)文献6算法检测效果图16本文算法与文献6检测效果图Fig.16Theresultsof thealgorithmandreference6由表3可见:与文献19中的算法相比,时间平均增加了8 ms,但是准确度提升5.1%;从检测结果来看,与文献6相比,本文算法在识别率值降低1%2%的情况下,速度提升了17%左右。二者的检测效果见图16,其中图16(a)是本文检测效果,检测线很好的贴在车道线的内侧,更加精确的标出了车道线的内边缘。本文左右测距实验结果评价标准,采用2019年中国智能车未来挑战赛的评价准则,其调和平均值(F-measure)的计算见式(11)。F-measure=2R

39、precisionTrecallRprecision+Trecall(11)Rprecision=LTPLTP+LFP(12)Trecall=LTPLTP+LFN(13)式中:LTP,LFP,LFN分别是正检总长度、误检总长度、漏检总长度;Rprecision和Trecall分别是查准率和查全率。该比赛的数据共有60组,每组50帧,提供了车道左右测距的真值。测试数据见表4。表4左右测距对比结果Tab.4Leftandrightdistancecomparisonresults算法名称文献19本文文献6调和平均值0.7610.8280.830由表34可见:本文算法在测距上优于文献19的算法,相对

40、于文献6,识别率略有降低,但调和平均值几乎保持不变,本文算法的综合精度较高。3结束语本文提出了1种将深度学习方法与传统方法相结合对车道线进行检测和识别的方法。该方法首先利用深度学习的适应性广泛与准确度高等特性,通过语义分割来排除大比例的外界干扰,以此避免来自道路上的缺损、道路结构、阴影等影响。然后在语义分割结果的基础上,利用传统方法的速度优势,通过基于道路结构的空间投票方法拟合出车道线,最终探索出1种对硬件条件要求不高,具有较快检测速度和较高检测率的方法。本文只对车道线进行了检测和左右偏移的测距,并没有对车道线的虚实、颜色、单双进行识别区分,未来研究更加全面考虑车道线的种类,进一步提高鲁棒性和

41、检测速度。参考文献References1KUSANO K D,GABLER H C.Comparison of expectedcrash and injury reduction from production forward collisionand lane departure warning systemsJ.Journal of Crash Pre-vention&Injury Control,2015,16(2):109-114.2ABRAMOV A,BAYER C,HELLER C,et al.Multi-lane per-表3算法对比结果Tab.3Lane recognitio

42、n statistics数据集序号1234帧数1 2651 3191 246983识别率/%文献1990.288.987.290.4本文94.393.494.195.3文献695.895.196.097.2平均每帧时间/ms文献1912.110.911.213.0本文29.930.129.830.4文献644.144.343.944.6基于语义分割与道路结构的车道线检测方法丁玲肖进胜李必军李亮陈宇胡罗凯109交通信息与安全2023 年3 期第 41卷总 244期ception using feature fusion based on GraphSLAMC.2016IEEE/RSJ Inter

43、national Conference on Intelligent Robots andSystems(IROS),Daejeon,Korea(South):IEEE,2016.3LI Q,ZHOU J,LI B J,et al.Robust lane-detection method forlow-speed environmentsJ.Sensors,2018,18(12):4274.4NEVEN D,BRABANDERE B D,GEORGOULIS S,et al.Towards end-to-end lane detection:an instance segmentationap

44、proachC.IEEE Intelligent Vehicles Symposium,Changshu,China:IEEE,2018.5NAROTE S P,BHUJBAL P N,NAROTE A S,et al.A reviewof recent advances in lane detection and departure warningsystemJ.Pattern Recognition,2018,1(73):216-234.6DING L,ZHANG H Y,XIAO J S,et al.A lane detectionmethod based on semantic seg

45、mentationJ.Computer Model-ing in Engineering&Sciences,2020,122(3):1039-1053.7NAVARRO J,DENIELl J,YOUSFI E,et al.Influence of lanedeparture warnings onset and reliability on car drivers behav-iors.J.Applied Ergonomics,2017:123-131.8KAZEMI M,BALEGHI Y.L*a*b*color model based roadlane detection in auto

46、nomous vehiclesJ.Bangladesh Journalof Scientific and Industrial Research,2017,52(4):273-280.9XIAO J,LUO L,YAO Y,et al.Lane detection based on roadmodule and extended Kalman filterC.Pacific-Rim Sympo-sium on Image and Video Technology,Wuhan,China:IEEE,2017.10刘 彬,刘宏哲.基于改进Enet网络的车道线检测算法J.计算机科学,2020,47(

47、4):142-149.LIU B,LIU H Z.Lane detection algorithm based on im-proved enet networkJ.Computer Science,2020,47(4):142-149.(in Chinese)11REN S Q,HE K M,GIRSHICK R,et al.Faster R-CNN:to-wards real-time object detection with region proposal net-worksJ.IEEE Transactions on Pattern Analysis and Ma-chine Int

48、elligence,2017,39(6):1137-1149.12DING L,XU Z R,ZONG J F,et al.A lane line detection al-gorithm based on convolutional neural networkC.Geome-try and Vision First International Symposium,Auckland,New Zealand:IEEE,2021.13GAIKWAD V,LOKHANDE S D.Lane departure identifica-tion for advanced driver assistan

49、ceJ.IEEE Transactions onIntelligent Transportation Systems,2015,16(2):910-918.14周经美,王 钰,宁 航,等.面向多元场景结合GLNet的车道线检测算法J.中国公路学报,2021,34(7):118-127.ZHOU J M,WANG Y,NING H,et al.Lane detection algo-rithm based on GLNet for multiple scenesJ.China Journal ofHighway and Transport,2021,34(7):118-127.(in Chine

50、se)15PAN X,SHI J,LUO P,et al.Spatial as deep:spatial CNNfor traffic scene understandingC.32ndAAAI Conference onArtificial Intelligence,New Orleans,LA,United States:IEEE,2018.16杨鹏强,张艳伟,胡钊政.基于改进RepVGG网络的车道线检测算法J.交通信息与安全,2022,40(2):73-81.YANG P Q,ZHANG Y W,HU Z Z.Lane-line detection algo-rithm based on

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服