1、第 20 卷 第 4 期2023 年 4 月铁道科学与工程学报Journal of Railway Science and EngineeringVolume 20 Number 4April 2023基于深度学习的铁路限界快速检测算法王辉1,2,吴雨杰2,范自柱2,杨辉2(1.华东交通大学 软件学院,江西 南昌 330013;2.轨道交通基础设施性能监测与保障国家重点实验室,江西 南昌 330013)摘要:列车行驶环境快速、可靠、精准感知是列车安全、高效运行的前提和关键支撑技术。列车若无法提前感知非法侵入铁路限界范围内的异物,并在短时间内有效制动,将会导致严重的安全事故。为解决列车运行环境内
2、影响运行安全的异物侵限问题,基于深度学习算法,提出一种铁路轨道限界快速检测算法。该方法首先采用预设行锚框的方式对图像进行划分,将传统分割算法的逐像素预测,转变为对每个行锚框进行逐网格预测,以达到显著降低算法计算量,并提高检测速度的目的。同时,通过快速识别图像中属于轨道部分的像素,结合轨道线的连续特征进行追踪,达到铁路轨道坐标的智能快速识别。最后根据标准轨距下限界的定义,对识别出的轨道线坐标和侵限区域进行扩充,以确定铁路异物入侵限界的范围。通过在真实轨道数据集上的对比实验,验证所提算法能以172FPS的速度快速检测铁路限界,且轨道线和限界区域的识别精度分别达到98.96%和98.12%,F1值分
3、别达到99.68%和98.95%,限界区域检测的平均交并比MIoU达到96.88%,各类指标均取得当前最好的准确率和性能,满足高速列车对环境感知精度和速度要求,可以为异物侵限检测、目标跟踪和列车控制等环境感知及运行控制等下游任务提供基础,提升列车运行的安全性。关键词:铁路限界;行锚框;深度学习;铁路轨道;图像分割中图分类号:TP391;U216.3 文献标志码:A 开放科学(资源服务)标识码(OSID)文章编号:1672-7029(2023)04-1223-09Fast detection algorithm of railway clearance based on deep learnin
4、gWANG Hui1,2,WU Yujie2,FAN Zizhu2,YANG Hui2(1.School of Software,East China Jiaotong University,Nanchang 330013,China;2.State Key Laboratory of Performance Monitoring and Protecting of Rail Transit Infrastructure,Nanchang 330013,China)Abstract:The fast,reliable,and accurate perception of driving env
5、ironment is a fundamental and key technology for safe and efficient train running.The failure to detect foreign objectsthatintrude illegally into the railway clearance in advance and applyeffectivebrakes in a short time can lead to serious safety accidents.To address the problem of foreign object in
6、trusion in the train running environment,a fast detection algorithm of railway clearance based on deep learning was proposed in this paper.First,the image segmentation algorithm based on 收稿日期:2022-04-14基金项目:国家自然科学基金资助项目(U2034211,61991401,61991404);江西省自然科学基金资助项目(20224BAB212014);教育部人文社会科学研究交叉学科项目(22YJ
7、CZH168)通信作者:杨辉(1965),男,江西高安人,教授,博士,从事轨道交通智能辅助驾驶研究;E-mail:DOI:10.19713/ki.43-1423/u.T20220732铁 道 科 学 与 工 程 学 报2023 年 4月deep learning was optimized by using row anchor boxes,which transforms the pixel-by-pixel prediction of traditional segmentation algorithms into a grid-by-grid prediction for each ro
8、w anchor box.This optimization method significantly reduces the computational requirements of traditional segmentation algorithms and improves the detection speed.Second,the intelligent identification of the railway track coordinate position was achieved by promptly recognizing the pixel position of
9、 the track line in the image and combining it with the track lines continuous characteristics.Finally,the scope of foreign body intrusion into the railway clearance was determined by expanding the coordinate position of the identified track line and intrusion area according to the definition of the
10、railway clearance of standard gauge.Through comparative experiments,the proposed algorithm can detect railway clearance at 172 frames per second,with railway track and railway clearance recognition accuracies of 98.96%and 98.12%,respectively.The harmonic mean F1 scores of railway track and railway c
11、learance detection are 99.68%and 98.95%,respectively,and the mean intersection over union(MIoU)detection is 96.88%.All these indicators achieved state-of-the-art accuracy and performance,which meets the environmental perception accuracy and speed requirements of high-speed trains.The proposed algori
12、thm can provide a foundation for downstream tasks such as foreign body invasion detection,target tracking,train control,and environmental perception,as well as operation control,and improve the safety of train running.Key words:railway clearance;row anchor box;deep learning;railway track;image segme
13、ntation 列车的重大运行事故与列车运行环境感知能力和感知精度密切相关,对列车运行环境实时且精准的感知成为保障列车安全运行的关键因素。当列车运行在没有护栏网的区间时,行人、牲畜或山区的落石等异物可能危及列车的运行安全1。传统的异物入侵检测手段主要包括人工线路定期巡检,铁路沿线提前布置用于检测异物的装置(如电网、各种传感器等)进行检测,以及基于计算机视觉和深度学习的异物侵限检测方法2。虽然这些方法在一定程度上能够对侵入铁路界限的异物做出检测,避免安全事故的发生,但是仍存在以下问题34:1)人工巡检需要消耗大量的人力、物力且实时性较低,难以实现24 h全天候检测;2)基于传感器技术的检测方式难
14、以全线部署和安装,且后期维护费用较高;3)传统基于计算机视觉和深度学习的方法,缺乏对铁路异物入侵限界的识别,存在检测范围过大、漏检、误检及实时性不高等问题。针对以上问题,本文采用预设的行锚框来进行轨道线的识别,显著降低轨道线和侵限区域检测的计算量以提高检测速度。确定铁路运行的安全限界以缩小异物侵限检测的区域,可以保证下游异物侵限检测、目标跟踪和列车控制等环境感知任务的精度、实时性和有效性等目标。1 基于行锚框的图像分割方法1.1行锚框的定义行锚框指宽度等于待检测图像宽度,高度为大小预先设定的先验框,其中每一个行锚框都由多个单元格组成,轨道图片的行锚框示意图如图1所示。图中矩形框就是一个预先设定
15、的行锚框,通过行锚框的划分使算法在执行时并不需要对图像中的每个像素点进行预测,只需要根据事先确定的行锚框对其内部每个网格进行检测,就可以得到轨道的位置信息和类别信息,图中方格代表的就是预测出的轨道线。1.2行锚框的分割原理传统的基于深度学习的图像分割算法如FCN5,Mask R-CNN6,SegNet7,U-Net8和 DFANet9等,均采用逐个像素进行类别判断,导致模型的推理时间显著增加,难以满足铁路运行场景下对异物侵限检测的速度要求。徐岩等10基于Faster R-CNN模型,设计一种铁路异物侵限检测算法,但没有划定异物侵限范围。NEVEN等11提出一种快速车道检测算法,运行速度达到50
16、FPS,可以处理可变车道数和车道变化,并在TuSimple数据集上取得1224第 4 期王辉,等:基于深度学习的铁路限界快速检测算法较好的结果,但是检测速度仍然不能满足高速列车的需求。QIN等12基于上下文和全局信息,采用基于行锚框的方法对车道进行识别,受该文献启发并结合铁路界限定义,可以显著减小铁路异物检测的范围。基于行锚框的分割方式将图像分割为多个大小相同的单元格,行锚框宽度等于待检测图像宽度,高度作为超参数预先人为设定。通过行锚框的划分使算法在执行时不需要对图像中的每个像素进行预测,只需要对行锚框内每个网格进行检测,结合轨道上下文信息可得到轨道的位置和类别信息。基于行锚框的图像分割方式的
17、原理如图2所示。图2(a)为传统图像分割算法的原理图,图 2(b)为改进的基于行锚框的图像分割原理图。基于行锚框的检测方法将传统分割方法沿着特征图通道方向,转换为沿着行锚框中的每个网格进行预测,可以避免使用上采样和转置卷积将分辨率低的特征图转换到原图分辨率所带来的额外计算量,以及局部感受野受限等问题。基于行锚框的计算方法和传统分割算法计算复杂度如式(1)所示:Forigin=HW(C+1)Frow=Ch(w+1)(1)式中:Forigin为传统分割方法的计算量,H,W,C分别为图片的高度,宽度和类别个数,背景作为单独类别,所以分类的总类别数需要加1;Frow为采用行锚框后的计算量,C,h,w分
18、别为类别个数,行锚框个数,行锚框中的网格数量,其中hH,wW,因此FrowForigin。使用行锚框的方式能够显著降低模型的计算复杂度,减少轨道线的定位时间。根据实际列车运行过程中所采集的图片信息,行锚框的范围只需设置图片下侧的3/4个区域,这样可进一步节约计算资源,保证检测的实时性。2 基于行锚框分割算法的轨道线快速检测网络2.1铁路限界区域设定铁路限界是列车运行时需要留出的安全行驶区域,然而监控设备采集的图像信息包括铁路限界内和限界外的区域。当图像中的物体位于铁路限界外时并不构成异物侵限,通过合理的划分铁路限界范围能够有效地防止限界外的异物被检测出来,从而避免安全误判等问题。我国采用的标图
19、1行锚框的定义Fig.1Definition of row anchor box(a)传统分割算法;(b)基于行锚框的分割算法图2基于行锚框的图像分割原理图Fig.2Schematic diagram of image segmentation based on row anchor box1225铁 道 科 学 与 工 程 学 报2023 年 4月准轨距是1 435 mm,在进行铁路限界的划分时需要考虑运行列车本身的宽度。因此,本文采用轨道所在区域以及左右轨道各自外延一个标准轨距作为铁路限界范围,设计符合直轨和弯轨2种不同类型的铁路限界检测方法。直轨和弯轨铁路限界的划分如图3所示。根据铁路限
20、界的设置将铁路运行场景下的图像分为轨道间的轨道区域、限界内的侵限区域和限界外的安全区域。2.2网络模型结构针对铁路限界检测需求,设计基于行锚框的分割方法和快速轨道限界检测模型,整体网络结构如图 4所示。快速轨道限界检测网络由主干网络、辅助检测模块,分类模块和限界区域检测模块4部分构成。1)主干网络主干网络采用残差网络ResNet-18提取不同场景下的铁路轨道图像特征,获得拥有丰富语义信息的低分辨率特征图。ResNet-18网络共包括4个残差模块,每个残差模块的下采样率都为2,经过4个残差模块后输出特征图的大小为原来的1/32。将残差网络ResNet-18的第2组,3组和4组残差块的输出作为辅助
21、检测模块的输入。2)辅助检测模块为增强网络对铁路轨道的定位能力,增加辅助检测模块,以提升网络对不同尺度特征的提取能力。将主干网络中第2组,3组和4组残差块的输出作为辅助检测模块的输入。辅助检测模块中对第3组和4组残差块的输出进行上采样,使输出特征图的分辨率与第2组残差块的特征图分辨率保持一致,并将 3组残差模块沿着通道方向进行拼(a)直线型轨道限界;(b)曲线型轨道限界图3不同类型的铁路限界划分Fig.3Different types of railway clearance图4轨道限界快速检测网络结构图Fig.4Network structure diagram for fast detec
22、tion of railway clearance1226第 4 期王辉,等:基于深度学习的铁路限界快速检测算法接,拼接后的特征图可以获得不同尺度的语义信息。辅助检测模块最后输出特征图的大小为原图的1/8,因此在网络中要将实际的标签图像缩小为原图的1/8,再计算真实分割图像与辅助检测模块输出特征图之间的交叉熵损失。同时,为了减少算法在执行阶段的时间开销,以提高算法的实时性能,该辅助检测模块只用于训练阶段。通过辅助检测模块对网络进行约束,可提高算法对轨道线的位置和形状特征的获取能力,有效提高检测的准确度。3)分类模块分类模块将主干网络提取的特征信息转换为轨道线的位置信息,为了能够有效地将最后的特
23、征图生成预测信息,需要根据预测信息将特征图转换为相应的特征向量。因此,选择全局平均池化对主干网络的输出特征图进行调节,以进一步增强特征图的语义信息。相比于使用全连接层调节网络最后的输出维度,使用全局平均池化能够显著降低网络的参数量,减轻过拟合现象,并且能够保证输出特征在不丢失空间信息的同时有效利用全局特征信息。4)限界区域检测模块根据预测出来的轨道线位置信息和类别信息,以及直轨和弯轨形状的铁路限界范围定义,实时计算列车运行过程中的限界范围。实时并准确地预测列车运行环境下的铁路限界区域,将有助于提升异物侵限识别、目标跟踪和列车控制等高速列车运行环境感知及运行控制等下游任务的性能。2.3损失函数设
24、计1)分类损失分类损失主要对模型预测所生成的轨道线位置和实际的轨道线位置进行约束,对每个轨道预测的类别向量如式(2)所示:Li=fi(X),s.t.i1,C(2)式中:X表示输入特征图;C表示轨道数量;fi表示网络使用的分类器函数;Li表示第i条轨道线使用分类器fi后得到的定位特征图。得到每条轨道线在每个行锚框上的预测类别向量之后,运用交叉熵损失函数计算预测轨道线位置和实际轨道线位置之间的损失,具体损失函数计算如式(3)所示。Lcls=i=1C(-GTilog(Li)-(1-GTi)log(1-Li)(3)GTi表示第i条轨道线的真实定位特征图。2)相似性损失铁路轨道在图像上通常呈现连续性,为
25、了保证预测轨道线的连续性,必须确保相邻2个行锚框区域所预测的轨道线相近。因此使用相邻行锚框中预测出的轨道线之间差值的一范数,作为网络的相似性损失Lsim,具体的损失函数计算如式(4)所示:Lsim=i=1Cj=1h-1Lji-Lj+1i1(4)3)分割损失训练整个网络过程中,为了增强网络对铁路轨道形状和位置特征的提取能力,使用了辅助检测模块增加训练时的约束。分割损失采用传统图像分割算法中普遍使用的交叉熵损失,具体计算公式如式(5)所示:Lseg=i=1Wj=1H(-Tri,j,:log(Pri,j,:)-(1-Tri,j,:)log(1-Pri,j,:)(5)式中:W表示图片的宽度;H表示图片
26、的高度;Pri,j,:是辅助检测模块中输出的关于分割信息的预测值;Tri,j,:是真实的标注分割信息,由于将没有检测到任何轨道线信息也作为一种类别,因此Pri,j,:和Tri,j,:都是(C+1)维的向量。网络总的损失函数为以上3个损失函数的加权求和,计算公式如式(6)所示:Lall=Lcls+Lsim+Lseg(6)式中:Lcls表示分类损失;Lsim表示相似性损失;Lseg表示分割损失;Lall 表示网络的总损失;其中的,和表示权衡每类损失权重的比例因子。2.4模型参数初始化及训练策略模型采用 ResNet-18 作为提取特征的主干网,因此直接采用ImageNet数据集上训练得到的权重,作
27、为网络的初始权重,对网络中的分类模块和辅助检测模块的卷积层采用Kaiming标准化方法,批归一化层的初始权重设置为1,偏置设置为0。损失函数的权重系数,和的值都设置为1。训练网络使用Adam优化器,网络的初始学习率设置为1227铁 道 科 学 与 工 程 学 报2023 年 4月0.000 4,为了防止过拟合设置权重衰减系数为0.000 1,采用随着训练次数自适应变换的学习率lr,计算公式如式(7)所示:lr=lr02()1+cosnbnbmax(7)式中:lr0表示初始学习率;nbmax表示总训练批次;nb表示当前的训练批次;lr表示当前的学习率。从式(7)可以看出,当前学习率随着训练次数的
28、增加而逐渐降低,使用自适应方式改变学习率的大小,可以保证网络训练速度的情况下,使训练的损失函数降到最低。在进行正式网络训练之前,为了确保训练的效果,在网络训练的第1代中使用式(8)所示的学习率微调网络中权重,这样可以保证网络模型对数据具备一定的先验信息,使网络在后续的训练过程中能够学习到有效的信息。lrwarm=lr0nbnbmax(8)式中:lrwarm为最终得到的微调训练的学习率。从式(8)中可以看到刚开始网络的学习率只有初始学习率的1/nbmax倍,当微调训练之后,网络将以设定的初始学习率lr0开始训练。3 实验设置及结果分析3.1数据集制作现阶段并没有专门针对铁路轨道检测的公共数据集,
29、因此本文从30个不同列车运行场景的视频文件中,以逐帧提取的方式共采集样本图片8 000张,分别包括城镇、山区、雪地等场景,选取其中的 7 000张作为训练数据集,剩余的 1 000张作为测试数据集,使用LabelMe对图片中的实际轨道线进行标注。3.2评估指标1)分类准确率每条轨道线在对应行锚框中的位置信息,都被归类到每个行锚框中不同网格索引上,因此可以用图像分类中的Top1分类准确率来评估网络对轨道线在网格上位置分类的准确性评价指标,其计算公式如式(9)所示:AAccuracy=i=1nj=1hCijAij(9)式中:n表示待检测的轨道线总数;h表示预先设定行锚框的数量;Cij表示正确检测出
30、轨道线的数量;Aij表示真实的轨道线数量,Top1分类准确率表示仅当预测出的轨道线出现在预测类别概率最大的位置时才视为预测正确。2)实际位置预测准确率轨道线的分布具有连续性,且可能分布在图像中的任意一个像素点上,因此仅以分类准确率作为轨道线检测的度量指标还不够准确,须针对预测出的每条轨道上的每个像素点与实际图片中轨道线分布的像素点进行比较,才能准确反映模型对轨道线检测的真实准确率,实际位置预测准确率计算如式(10)所示:Aline=i=1nj=1hClineijAlineij(10)式中:Clineij表示位置信息预测正确的轨道线个数,判断标准采用轨道的预测位置横坐标与轨道真实位置的横坐标相减
31、进行判断,如果相减后的差值小于设定阈值,则将此时的预测轨道线设置为正确预测的轨道线并将Clineij加1,否则判断该轨道线预测错误;Alineij为真实轨道线个数;本文中阈值设置为20个像素。3)F1值F1值为查准率和召回率的调和平均数,能够综合反映网络对于待检测目标的查全能力和查准能力。计算公式如式(11)所示:1F1=12(1P+1R)=12(P+RPR)(11)4)平均交并比MIoU通过MIoU可以得到正确预测的像素点个数占总像素点个数的比值,比值越大表示对目标分割的效果越精确,当预测完全正确时,平均交并比MIoU的大小为1,根据分类结果的“混淆矩阵”,MIoU计算如式(12)所示:RM
32、IoU=1k+1i=0kTPFN+FP+TP(12)3.3实验结果及分析3.3.1网格实验本文在使用行锚框对轨道线进行预测时需要对每个行锚框的网格进行划分,行锚框内网格数量的划分多少,将会影响网络模型对轨道线的检1228第 4 期王辉,等:基于深度学习的铁路限界快速检测算法测精度。本文设置8种不同网格数的行锚框,以验证网格数对轨道线预测的效果,结果如图5所示。从图中可以看出当网格数为25时,8种不同网络模型的 Top1准确度最高,但实际位置准确度Aline最低。随着网格数量的增长,网络模型的Top1准确度有微小的下降,但实际位置准确度却得到提升,这是因为网格数量较小时,较大的网格宽度允许预测的
33、轨道线在较大范围内波动,即网络对轨道线预测的容错率较大,因此网格Top1分类准确度较高。但因为轨道线的波动范围较大,导致网络对轨道实际位置的预测准确度较低。为了平衡轨道限界检测的准确性和可靠性,本文选择实际位置预测准确度Aline最高时的网格个数50,作为行锚框中预先划分的网格数。表1给出基于深度学习的轨道/车道检测方法,基于传统机器视觉的轨道/车道检测方法,以及本文方法的对比实验。由表1的对比实验结果可知,本文算法的实际位置检测精度、F1值和检测速度均高于其他4种检测算法,显示本文所提方法在满足实时性的前提下,检测精度优于目前最好的基于深度学习的检测方法。3.3.2限界区域识别通过限界区域检
34、测模块,可以将轨道检测算法得到的轨道线信息转换为限界区域的位置信息。但是如果实际轨道的起始位置没有处于图像的下边缘,将无法利用轨道之间的间距实现限界区域的计算。因此在检测此类图像时,本文选取轨道的前5个预测位置的像素点进行一元线性回归,从而实现对预测轨道线的拓展。图6是轨道线的拓展原理及效果示意图。通过将拓展后的轨道线预测结果,输入到铁路限界检测模块,再根据标准轨距下的限界定义就能够得到完整的限界区域。图7表示轨道线信息经过限界检测模块校准前后的限界区域预测结果,从图中可以看出在轨道线拓展前,限界区域存在部分缺陷区域,如图7(a)所示,而对轨道线进行拓展后,这部分缺陷区域能够被完整地检测出来,
35、如图7(b)所示,从而提高铁路限界检测的准确性。表2为不同轨道线检测算法经过限界区域检测模块转换后得到的限界检测结果,从表中可以看出本文算法的预测限界区域与实际限界区域的MIoU值高于其他对比算法,并且限界区域的实际预测精度Aline和F1分数均优于其他几类算法。为了更加直观地展示本文所提网络模型的实际检测效果,选取不同场景下的轨道图像(包括单线直线型和曲线型轨道,双线直线型和曲线型轨道),并运用所提方法对图片中的轨道限界进行快速识别,结果如图 8 所示。图中第 1 列为输入图片,第2列为轨道线检测效果图,第3列为限界区图5网格数与检测精度关系Fig.5Relationship between
36、 grid number and detection accuracy表1轨道检测算法对比Table 1Comparison of different railway track detection algorithms算法UFAST12LaneNet13SCNN14CondLaneNet15本文算法F1/%99.5559.7570.1385.699.68Aline/%98.8183.7289.1790.5198.96FPS/(fs1)15043125172图6轨道线拓展效果图Fig.6Rendering of railway track expansion1229铁 道 科 学 与 工 程
37、学 报2023 年 4月域检测效果图,相邻轨道线之间区域表示轨道区域,此区域和轨道线外延区域共同构成铁路限界内的危险区域。当物体进入到铁路限界标定的危险区域即可判断该物体构成异物侵限。(a)拓展前效果图;(b)拓展后效果图图7限界区域拓展效果图Fig.7Rendering of railway clearance expansion表2限界检测结果对比Table 2Comparison of railway clearance detection results算法UFAST12LaneNet13SCNN14CondLaneNet15本文算法F1/%96.2747.545076.398.95A
38、line/%97.0877.1580.9686.6198.12RMIoU(轨道区域)/%87.561.1989.0996.6393.28RMIoU(限界区域)/%94.6372.2591.4695.2696.88(a)单线直线型轨道;(b)单线曲线型轨道;(c)双线直线型轨道;(d)双线曲线型轨道图8铁路限界检测效果图Fig.8Railway clearance detection1230第 4 期王辉,等:基于深度学习的铁路限界快速检测算法4 结论1)提出将深度学习方法应用于铁路限界区域的快速检测中,采用基于行锚框的分割方法能够大幅降低传统图像分割算法的计算量,以提高轨道线和侵限区域检测的性
39、能,并使用不同场景下采集的轨道工况数据集对模型的有效性进行验证。2)实验结果表明使用行锚框进行优化后的基于深度学习的侵限区域检测方法,能以172FPS的速度快速检测铁路轨道线及限界区域,且识别精度分别达到98.96%和98.12%,对高速列车运行环境感知具有重要参考价值。3)准确高效的铁路列车限界区域检测作为基础模型,可满足高速列车运行环境下的异物侵限识别、目标跟踪和列车控制等下游任务对环境感知精度和实时性的要求。参考文献:1王泉东,杨岳,罗意平,等.铁路侵限异物检测方法综述J.铁道科学与工程学报,2019,16(12):31523159.WANG Quandong,YANG Yue,LUO
40、Yiping,et al.Review on railway intrusion detection methodsJ.Journal of Railway Science and Engineering,2019,16(12):31523159.2陈永,卢晨涛,王镇.红外弱光环境下多尺度密集注意力铁路异物检测J.铁道学报,2022,44(7):6371.CHEN Yong,LU Chentao,WANG Zhen.Detection of railway foreign object intrusion under infrared low light environment based o
41、n multi-scale dense attention networkJ.Journal of the China Railway Society,2022,44(7):6371.3ZHAO Zhongqiu,ZHENG Peng,XU Shoutao,et al.Object detection with deep learning:a reviewJ.IEEE Transactions on Neural Networks and Learning Systems,2019,30(11):32123232.4RAVINDRAN R,SANTORA M J,JAMALI M M.Mult
42、i-object detection and tracking,based on DNN,for autonomous vehicles:a reviewJ.IEEE Sensors Journal,2021,21(5):56685677.5SHELHAMER E,LONG J,DARRELL T.Fully convolutional networks for semantic segmentationJ.IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(4):640651.6HE Kaiming,G
43、KIOXARI G,DOLLAR P,et al.Mask R-CNNJ.IEEE Transactions on Pattern Analysis and Machine Intelligence,2020,42(2):386397.7BADRINARAYANAN V,KENDALL A,CIPOLLA R.SegNet:a deep convolutional encoder-decoder architecture for image segmentationJ.IEEE Transactions on Pattern Analysis and Machine Intelligence,
44、2017,39(12):24812495.8RONNEBERGER O,FISCHER P,BROX T.U-net:convolutional networks for biomedical image segmentationM/Lecture Notes in Computer Science.Cham:Springer International Publishing,2015:234241.9LI Hanchao,XIONG Pengfei,FAN Haoqiang,et al.DFANet:deep feature aggregation for real-time semanti
45、c segmentationC/2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).June 15-20,2019,Long Beach,CA,USA.IEEE,2020:95149523.10 徐岩,陶慧青,虎丽丽.基于Faster R-CNN网络模型的铁路异物侵限检测算法研究J.铁道学报,2020,42(5):9198.XU Yan,TAO Huiqing,HU Lili.Railway foreign body intrusion detection based on faster R-CNN
46、 network modelJ.Journal of the China Railway Society,2020,42(5):9198.11 NEVEN D,DE BRABANDERE B,GEORGOULIS S,et al.Towards end-to-end lane detection:an instance segmentation approachC/2018 IEEE Intelligent Vehicles Symposium(IV).June 26-30,2018,Changshu,China.IEEE,2018:286291.12 QIN Zequn,WANG Huany
47、u,LI Xi.Ultra fast structure-aware deep lane detectionEB/OL.2020:arXiv:2004.11757.https:/arxiv.org/abs/2004.11757.13 WANG Ze,REN Weiqiang,QIU Qiang.LaneNet:real-time lane detection networks for autonomous drivingEB/OL.2018:arXiv:1807.01726(20180704)20220414.https:/arxiv.org/abs/1807.01726.14 PAN Xin
48、gang,SHI Jianping,LUO Ping,et al.Spatial as deep:spatial CNN for traffic scene understandingEB/OL.2017:arXiv:1712.06080.https:/arxiv.org/abs/1712.06080.15 LIU Lizhe,CHEN Xiaohao,ZHU Siyu,et al.CondLaneNet:a top-to-down lane detection framework based on conditional convolutionC/2021 IEEE/CVF International Conference on Computer Vision(ICCV).Montreal,QC,Canada.IEEE:37533762.(编辑 阳丽霞)1231