收藏 分销(赏)

基于驾驶行为基元的典型驾驶场景识别与提取方法.pdf

上传人:自信****多点 文档编号:2327325 上传时间:2024-05-28 格式:PDF 页数:11 大小:1.56MB
下载 相关 举报
基于驾驶行为基元的典型驾驶场景识别与提取方法.pdf_第1页
第1页 / 共11页
基于驾驶行为基元的典型驾驶场景识别与提取方法.pdf_第2页
第2页 / 共11页
亲,该文档总共11页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 13 卷第 5 期2023 年 9 月汽车工程学报Chinese Journal of Automotive EngineeringVol.13No.5Sept.2023基于驾驶行为基元的典型驾驶场景识别与提取方法田浩东1,赵树廉2,3,古昕昱4,吴思宇2,姚紫阳3(1.重庆大学 机械与运载工程学院,重庆 400044;2.清华大学 车辆与运载学院,北京 100084;3.中国汽车工程研究院股份有限公司,重庆 401122;4.燕山大学 电气工程学院,河北,秦皇岛 066004)摘要:为了从海量自然驾驶数据中有效提取典型驾驶场景,提出一种基于驾驶行为基元的典型驾驶场景识别与提取方法,搭建了

2、具有多类场景覆盖及通用程度高的典型驾驶场景自动化识别与提取框架,解决了当前方法仅适用特定单一场景提取,无法从大规模数据中高效提取场景的问题。关键词:典型驾驶场景;驾驶行为;驾驶场景提取;特征参数分布中图分类号:U461.99文献标志码:ADOI:10.3969/j.issn.20951469.2023.05.08Identification and Extraction of Typical Driving Scenarios Based on Driving Behavior PrimitivesTIAN Haodong1,ZHAO Shulian2,3,GU Xinyu4,WU Siyu2

3、,YAO Ziyang3(1.College of Mechanical and Vehicle Engineering,Chongqing University,Chongqing 400044,China;2.School of Vehicle and Mobility,Tsinghua University,Beijing 100084,China;3.China Automotive Engineering Research Institute Co.,Ltd.,Chongqing 401122,China;4.Institute of Electrical Engineering,Y

4、anshan University,Qinhuangdao 066004,Hebei,China)Abstract:In order to effectively extract typical traffic scenes from massive natural driving data,a method for recognizing and extracting driving scenes is proposed based on driving behavior primitives.To address the challenges of being limited to ext

5、racting only a specific single scene and the inefficiency of scene retrieval from large-scale data acquisition,the paper developed an automatic recognition and extraction framework for typical driving scenes.This framework ensures multi-class scene coverage and features high degree of universality.K

6、eywords:typical driving scenes;driving behavior;driving scene extraction;characteristic parameter distribution自动驾驶汽车的运行与具体语境强相关,意味着驾驶场景中包含着具有巨大价值的信息。真实场景中所包含的信息,能支撑智能网联汽车的研发、测试和评价。其中,以大量真实路采数据为基础的收稿日期:20230518改稿日期:20230711基金项目:国家重点研发计划项目(51605054)参考文献引用格式:田浩东,赵树廉,古昕昱,等.基于驾驶行为基元的典型驾驶场景识别与提取方法 J.汽车工程学

7、报,2023,13(5):676-686.TIAN Haodong,ZHAO Shulian,GU Xinyu,et al.Identification and Extraction of Typical Driving Scenarios Based on Driving Behavior Primitives J.Chinese Journal of Automotive Engineering,2023,13(5):676-686.(in Chinese)第 5 期田浩东 等:基于驾驶行为基元的典型驾驶场景识别与提取方法场景提取和关键信息的挖掘,有效促进对算法的改进、测试用例的构建等具体

8、研发工作。场景提取及关键信息挖掘包含交通数据获取、驾驶场景提取及驾驶场景关键信息挖掘。场景数据来源是基于场景数据测试方法的基础,其目的为后续提取驾驶场景,分析交通行为特征和场景构建提供数据基础。一般而言,场景数据来源主要分为知识类来源与类来源。其中,知识类场景数据来源主要包括通过不同方式展现出来的抽象信息、国家制定的有关标准规范及现实中的典型案例数据。而数据类场景数据来源主要由场地测试、道路测试和数据采集所得出的实际数据。驾驶场景提取为从大量采集到的数据中提取典型场景和危险场景。场景分析是对提取出来的场景的行为关键特征进行分析,为后续构建危险场景提供要素。驾驶场景提取的目的是从大量采集到的数据

9、中过滤与安全无关的交通数据,并提取影响安全的典型场景和危险场景。对于驾驶场景提取问题,查仁方等1发明了基于车辆的行驶数据帧、目标相对车辆的相对行驶数据帧及根据目标驾驶场景的第一阈值特征和第二阈值特征来确定跟踪目标物的方法。王羽瑾等2提出了一种基于匝道区域范围和预设第1时刻第2点位置信息目标物起始终点位置、适用于匝道场景的场景提取方法。叶福恒等3提出了一种基于驾驶数据分区序号列和编号,适用于高速自动驾驶功能跟车场景、切入场景和切出场景的提取方法。刘明等4提出了一种基于深度学习的危险场景提取方法。王羽瑾等5提出了一种基于时刻和阈值的跟车场景的提取方法。崔博非等6提出了一种基于视觉SLAM静态特征的

10、泊车场景提取方法。宁小娟等7提出了一种基于点云的室内场景物体提取方法。周景岩等8提出了一种上下匝道行为场景数据采集、识别与提取方法。张宇飞等9提出了一种基于自然驾驶场景数据特征点的场地测试用例提取方法。邢智超等10提出一种跟驰行为场景数据采集、识别、分类提取系统及方法。陆思宇等11提出了一种基于信号规则的自动驾驶前车切入场景提取方法。郭洪艳等12提出了一种针对人机共驾测试的侧方插入场景提取方法。杜莹等13提出了一种车辆循线行驶场景提取方法。李卫兵等14提出了一种泊车典型场景的提取方法。陈华等15发明了用于智能驾驶系统测试的典型自然驾驶场景识别提取方法。石娟等16提出了一种自动驾驶前车切入切出场

11、景提取方法。吴平等17发明了一种基于自然驾驶数据的泊车场景提取系统和方法。ZHAO Jinxin等18提出针对大量车辆驾驶数据的综合数据聚类框架,解决现有依赖于手工特征场景提取的方法。MEN Jianfeng等19提出驾驶场景补充类平衡网络来解决边缘驾驶场景识别问题。总体来看,国内外的相关研究主要是基于固定预设规则来进行分类场景提取,然而,基于固定预设规则提取方法通常仅限于单一的特定场景提取,很难适配日趋复杂的自动驾驶车辆真实驾驶环境,且不利于后续形成标准化、完整化的场景提取框架。因此,针对上述问题,本文通过定义6种典型驾驶场景,并进一步将其解耦为独立的最小驾驶行为单元,同时将其定义为场景基元

12、用来表征整车系统在执行感知-行为-决策这一过程中的状态序列,并将基元建立为特定的数学模型,设定基元的提取规则。从数据集中提取出典型场景,作为后续场景行为分析的基础,完成基于驾驶行为基元的典型驾驶场景识别与提取模型构建。最后结合特征参数分布模型,建立场景关键特征提取与分析的方法框架,并在中国真实路采数据上应用该方法,挖掘中国典型驾驶场景特征以验证该方案的可行性。1典型自然驾驶行为建模与提取典型驾驶场景是具有特定特征,在真实世界中出现频度较高的场景。典型驾驶场景具有高暴露、易捕获、关键性等特点。典型驾驶场景的信息对于构建特定的驾驶策略,优化相应功能系统,提高智能网联汽车安全性和舒适度具有重要意义。

13、场景是由实体的交互构成的动态序列,驾驶行为是驾驶场景中最关键的动态要素。由于不同的驾驶目标和驾驶习惯,长期的驾驶状态序列呈现复杂多样的情况。然而,在道路法规和物理约束下,短677汽车工程学报第 13 卷期的驾驶行为具有一些典型的特征和类型。通过对自然驾驶条件下典型驾驶场景的共性行为特征进行分析和挖掘,可以总结出相应的驾驶行为基元,进一步建立典型驾驶场景与驾驶行为基元的数学化与符号化理论模型。根据驾驶行为基元定义,对其关键特征进行分析,提出一种驾驶行为基元提取算法,为后续典型驾驶场景的提取提供算法基础。本文以典型驾驶场景为核心展开研究,其技术方案如图1所示。1.1典型自然驾驶行为分析基于驾驶行为

14、基元的典型驾驶场景识别与提取方法的基础是对典型驾驶场景的行为进行切片分析,挖掘共性行为,从而提炼出驾驶场景基元。此外,典型驾驶行为基元要求能适配多车行为的复杂交互和单车行为的频繁变化,并具有一定的可组合性。从自车视角出发,典型场景通常分为跟车、换道、超车、目标车切入、目标车切出几种。下面总结场景进行分析。1.1.1自由行驶自由行驶为自车前方目标车距离较远或无目标车,自车无明显横向运动变化或特征。将保持在同一车道上沿车道行驶这一行为确定为直行,是一种自由行驶下的运动方式,如图2所示。其中,考虑弯道情况,进一步将直行扩展为广义直行,即包含在直道与弯道上车辆未发生换道的动态驾驶行为。1.1.2跟车行

15、驶目标车与自车在同一车道上沿车道行驶,自车行驶在目标车之后紧随目标车。在跟车过程中,目标车和自车都未发生换道行为,车辆主要行为均为直行,如图3所示。图1自然驾驶行为场景提取技术路线图2自由行驶场景678第 5 期田浩东 等:基于驾驶行为基元的典型驾驶场景识别与提取方法1.1.3换道行驶换道可分为向左换道和向右换道。向左换道时,目标车与自车在同一车道上,行驶在自车前方,一段时间后,自车转向,向左跨越车道线,并行驶在自车左侧相邻车道。其中,车辆主要行为分别为向左跨越车道线行驶与直行,如图4所示,可拆解为、。向右换道与向左换道类似,车辆主要行为分别为向右跨越车道线行驶与直行,可拆解为、。1.1.4超

16、车行驶超车可分为向左超车和向右超车。向左超车时,目标车与自车在同一车道上,行驶在自车前方,自车首先执行向左换道动作,在自车超越目标车后,执行向右换道动作。其中,车辆主要行为分别为向左跨越车道线行驶、直行、向右跨越车道线行驶与直行,如图5所示,可拆解为、。向右超车与向左超车类似,车辆主要行为分别包含向右跨越车道线行驶、直行、向左跨越车道线行驶与直行,可拆解为、。1.1.5目标车切出目标车切出可分为向左切出和向右切出。目标车向左切出时,目标车与自车在同一车道上,行驶在自车前方,自车首先执行跟车行驶动作,随后目标车执行向左换道动作。其中,车辆主要行为分别为直行、向左跨越车道线行驶(目标车)、直行(目

17、标车),如图6所示,可拆解为、。目标车向右切出与向左切出类似,车辆主要行为分别包含直行、向右跨越车道线行驶(目标车)、直行(目标车),可拆解为、。1.1.6目标车切入目标车切入可分为从左切入和从右切入。目标车从左切入时,目标车行驶在自车相邻的左侧车道上,位于自车左前方位置,自车首先执行跟车或自由行驶动作,随后目标车执行向右换道动作。其中,车辆主要行为分别为直行、向右跨越车道线行驶(目标车)、直行(目标车),如图7所示,可拆解为、。目标车从右切入与从左切入类似图4换道行驶场景图3跟车行驶场景图5超车行驶场景679汽车工程学报第 13 卷车辆主要行为分别包含直行、向左跨越车道线行驶(目标车)、直行

18、(目标车),可拆解为、。1.2典型自然驾驶行为基元定义考虑场景动态的关键要素,典型驾驶场景可通过车辆类型、车辆位置以及驾驶行为基元3个关键要素进行定义。其中,车辆类型分为主车和目标车,车辆位置可根据主车及目标车的相对位置以及所处车道确定。以主车为中心,对主车产生影响的全部车辆潜在位置划分为 8个区域,如图 8所示,通过纵、横两个方向对其进行数字化,在主车的前方、平行及后方向分别用 1、0、-1表示,主车左车道线、主车车道线以及右车道线分别用-1、0、1表示。驾驶行为基元包含广义直行、向左跨越车道线行驶、向右跨越车道线行驶3个基本行为单元。则上述不同的典型驾驶场景可表示为:=1long=-11l

19、ateral=-1Ii=1 =subject,objectlong=-1,0,1lateral=-1,0,1=Gstraight,Tleft,Tright=0,1=CFlaterallongQ 。(1)式中:为驾驶场景;()为并集;()为交集;C在为subject,object时分别表示车辆类型为主车与目标车;long为-1、0、1时分别表示相对主车后方、与主车处于同一水平、相对主车前方的3个不同纵向相对位置;lateral为-1、0、1时分别表示位于主车所在车道左侧相邻车道、与主车处于同一车道、位于主车所在车道右侧相邻车道3个不同横向相对位置;Flaterallong表示与主车的纵向、横向相

20、对位图6目标车切出场景图7目标车切入场景图8驾驶场景区域680第 5 期田浩东 等:基于驾驶行为基元的典型驾驶场景识别与提取方法置关系;Q在为Gstraight,Tleft,Tright时分别表示广义直行、向左跨越车道线行驶、向右跨越车道线行驶3种不同驾驶行为基元;为0,1时分别表示该位置不存在车辆以及存在主车/目标车;i为该场景中对应的目标车类型的i个驾驶行为基元;I为该场景中目标车类型的总驾驶行为基元数量。1.3典型自然驾驶行为基元建模1.3.1广义直行基元模型如图9所示,考虑到车辆无论在直道或弯道上行驶,在一定时间内,车辆与车道之间的距离dv2l都保持在一个相对不变的状态。同时,对于在直

21、道上的驾驶行为,车辆的航向角与车道线基本保持平行;对于在弯道上的驾驶行为,车辆的航向车道线的切线夹角v2l基本保持不变。综上所述,将广义直行定义为一定时间内,车辆与车道线之间的距离变化量,车辆航向角与车道线切线的夹角同时保持在可接受变动范围内(较小范围),其表征函数为:Gstraight(t)=dv2l(t),v2l(t)TR2 1。(2)式中:0 t Tstraightwidthdv2l()t Kv2l()t Tstraightwidth为确定驾驶行为为广义直行的最少时间常量;K为距离常量;为角度常量。1.3.2左跨越车道线基元模型如图10所示,向左跨越车道线场基元含有Ps、Pc和Pe三个关

22、键点区域。其中,Ps为左跨越车道线基元的起始区域,在Ps区域中车辆距离车道线的距离dv2l保持在一个相对不变的状态;Pc为车辆跨越车道线区域,在Pc区域中由于车辆所处车道的改变,车辆距车道线的距离dv2l发生跳变;Pe为左跨越车道线基元的终止区域,在Pe区域中车辆距离车道线的距离dv2l保持在一个相对不变的状态。这一特性也适合于向右跨越车道线基元。因此,可以根据距离车道线的距离跳变来确定是作为跨越车道线的依据。其表征函数为:Tleft=dv2l(t),v2l(t),F(t)TR3 1。(3)式中:0 t Tchangewidth;dv2l(t)K;v2l(t)straight;Tchangew

23、idth为确定驾驶行为为广义直行的最少时间常量;K为距离常量;straight为角度常量。dv2l(t)=k1,T0 t T1B-vlat*()t-t1 T1 t T20 T2 t T3vlat*()t-t1 T3 t T4k2 T4 t T5。(4)v2l(t)=0,0 t T1change,t1 t t40,t4 t t5。(5)F(t)=0,0 t T3C,T3 t T4-1,T4 t T5。(6)同理可得左跨越车道线基元特征:F(t)=0,0 t T3C,T3 t T41,T4 t T5。(7)图9广义直行模型图10向左跨越车道线681汽车工程学报第 13 卷1.4典型自然驾驶行为基元

24、提取方法采集数据包含时序形式下自车和周围环境车辆的状态变量:Xi=t,xt,yt,vt,at,t。(8)基于上述时序状态变量,进行简单运算可以进一步获得包括TTC、THW等高阶状态信息。结合前述所定义的驾驶场景基元,可以基于基元特征规则化地主动对场景动态信息进行提取、归类或标签。广义直行驾驶行为基元=Gstraight时的判定方法如图11所示。其实现过程为:步骤一:采用宽度为Tstraightwidth 的滑动时间窗从第i帧自然驾驶数据所对应的时间戳ti向后迭代,假设时间窗内的第 1 帧为第j帧,最后一帧为第k帧。则有:tk-tj=Tstraightwidth(j i k)。(9)式中:tk,

25、tj分别为第k帧、第j帧自然驾驶数据所对应的时间戳。步骤二:计算时间窗内的距离车道线的距离和车辆航向与车道线切线方向的夹角,若满足:i|dv2li-dv2lj|straight|v2li|straight。(10)式中:=j,k;表示同时满足条件;v2li为车辆在第i帧时,车辆航向与车道线切线方向的夹角;straight,straight分别为广义直行基元中的距离阈值与角度阈值。则该基元为广义直行驾驶行为基元,否则,跳转至步骤一,并有:i=i+1。(11)根据跨越车道线行为基元特征来判断车辆是否该行为跨越车道线,向左跨越车道线行驶、向右跨越车道线行驶两种驾驶行为基元=Tleft,Tright时

26、的建模方法如图12所示,具体步骤为:步骤一:假设从第i帧开始,计算相邻两帧自然驾驶数据对应的时间戳之间的时间差值t。t=ti+1-ti。(12)式中:ti为第i帧自然驾驶数据所对应的时间戳。步骤二:判断是否满足t D,若满足就进行下一步,否则i=i+1,并重复步骤一。其中,D为车道宽度判断阈值。步骤五:采用宽度为Tchangewidth 的滑动时间窗从第i帧的时间戳ti向前回溯,假设时间窗内的第1帧为第j帧,最后一帧为第k帧,则有:tk-tj=Tchangewidth(j i D,若满足则判断为向右跨越车道线驾驶行为基元;否则判断是否满足d -D,若满足则判断为向左跨越车道线驾驶行为基元;若均

27、不满足,则跳转至步骤五,并有:i=i-1。(16)2试验验证与分析由于不同国家历史传统和地域特征存在差异,驾驶法规和行为习惯也有所区别。我国幅员辽阔,不同地区有不同的驾驶行为习惯,因此,需要去挖掘具有中国特色的驾驶行为特征。本文以文献20 所述的多源信息采集为基础,通过试验、分析和总结对前述所提场景特征提取方案进行实践验证。2.1数据集基础为支持本文的研究,利用文献20介绍的数据采集平台车采集具有中国地域特色的自然驾驶交通数据。本研究累计完成100万公里的道路数据采集。采集区域涵盖东北、华北、华东、华西、华中、西南、华南等区域。如图13所示,采集道路分布为高速公路 43.3%,城市道路 30.

28、9%,国道省道23.6%,其他道路2.2%。自然驾驶数据涉及多种地形,构成了多样化自然驾驶数据库。参与自然驾驶数据采集的驾驶员数量超过 60人,由于要进行长时间全国区域驾驶数据采集,因此,驾驶员以男性为主(96.61%)。驾驶员的年龄为 2055岁,在确保驾驶安全的情况下,参与采集的驾驶员均具有不同的驾驶经验,在一定程度上覆盖了中国驾驶员可能经历的各种驾驶场景,以保证采集的驾驶数据更加全面,尽可能广泛地涵盖不同驾驶员所触发的驾驶场景。2.2行为基元提取试验验证为了验证基于驾驶行为基元的识别与提取方法的准确性,本研究定义了评价指标。对于数据挖掘方法而言,常用的模型评价指标主要有:1)准确率,表示

29、被提取或分类正确的样本数量占全部样本数量的比例;2)精确率,表示提取或分类正确的正样本个图13数据集采集类别概况683汽车工程学报第 13 卷数占提取模型判定为正样本个数的比例;3)召回率,是指提取或分类正确的正样本个数占真实正样本个数的比例;4)错误率,与准确率相反,描述被提取或分类算法分错的比率。在计算上述指标之前,首先对基本混淆矩阵进行定义。因此,上述指标可以分别表示为:准确率(Raccuracy):Raccuracy=TP+TNTP+TN+FP+FN。(17)精确率(Rprecision):Rprecision=TPTP+FP。(18)召回率(Rrecall):Rrecall=TPTP

30、+FN。(19)错误率(Rerror):Accuracy=FP+FNTP+TN+FP+FN=1-Rerror。(20)基于上述指标,将本文所述基于驾驶行为基元的典型驾驶场景识别与提取方法在中国汽研的场景提取生成云平台软件i-STAR中作为模块实现,通过对10 000个场景数据进行建模分析,并与实际场景进行对比验证,其准确率见表2。3结论考虑到驾驶场景识别和提取是高效分析基于自然驾驶数据的驾驶行为的基础,在实现场景高效准确提取的关键问题中,本文基于大量自然驾驶数据自动识别典型驾驶场景展开研究,借助典型驾驶场景分析、驾驶行为基元建模、驾驶行为基元组合、驾驶场景提取等关键技术手段实现了面向自动驾驶车

31、辆功能开发与测试的典型驾驶场景自动化识别与提取,最终提出了一种具有多场景覆盖且通用程度高的基于驾驶行为基元的典型驾驶场景自动识别与提取方法。该方法将驾驶场景分解为车辆类型、车辆位置和驾驶行为基元三大要素,并基于三大要素对典型驾驶场景建立了数学模型,从而实现了驾驶场景和驾驶行为基元的通用化描述,使复杂场景简单化。此外,该方法面向自动驾驶车辆研发与测试的全生命周期,通过驾驶行为基元的特征分析,研发了基于规则的驾驶行为基元提取算法和基于要素组合的驾驶场景识别方法,实现对自然驾驶场景高效快速的自动化提取,从而有效促进自动驾驶车辆的大规模仿真与道路测试应用落地。参考文献(References)1 查仁方

32、,程汉,郝璐璐,等.一种驾驶场景提取方法、装置、设备及介质:CN115601685A P.2023-01-13.ZHA Renfang,CHENG Han,HAO Lulu,et al.A Driving Scene Extraction Method,Device,Equipment and Medium:CN115601685A P.2023-01-13.(in Chinese)2 王羽瑾,曹斌.匝道场景的提取方法、装置和电子设备:CN115497066A P.2022-12-20.WANG Yujin,CAO Bin.Extraction Method,Device and Electr

33、onic Equipment of Ramp Scene:CN115497066AP.2022-12-20.(in Chinese)3 叶福恒,张宇飞,郑建明,等.一种适用于高速自动驾驶功能场景提取方法:CN115257803A P.2022-11-01.表1基本混淆矩阵正例反例正例真正例(TP)假正例(FP)反例假反例(TN)真反例(FN)表2驾驶行为基元试验结果自由跟车跟车换道超车切入切出左右左右左右左右准确率/%89.5484.5281.0678.7873.8471.4682.9182.3482.7682.32精确率/%90.9490.3889.0087.4585.0882.5189.9

34、389.8389.9989.69召回率/%96.8190.6587.2185.8179.7378.6188.4387.7888.3387.98错误率/%10.4615.4818.9421.2226.1628.5417.0917.6617.2417.68684第 5 期田浩东 等:基于驾驶行为基元的典型驾驶场景识别与提取方法YE Fuheng,ZHANG Yufei,ZHENG Jianming,et al.A Scenario Extraction Method for High-Speed Autonomous Driving Functions:CN115257803A P.2022-11

35、-01.(in Chinese)4 刘明,孟长青,张帆,等.基于深度学习的危险场景提取方法及相关设备:CN115204371A P.2022-10-18.LIU Ming,MENG Changqing,ZHANG Fan,et al.Dan-gerous Scene Extraction Method and Related Equipment Based on Deep Learning:CN115204371A P.2022-10-18.(in Chinese)5 王羽瑾,曹斌.跟车场景的提取方法、装置和电子设备:CN115626161A P.2023-01-20.WANG Yujin,C

36、AO Bin.Extraction Method,Device and Electronic Equipment of Following Scene:CN115626161AP.2023-01-20.(in Chinese)6 崔博非,胡习之,李洪涛,等.一种泊车场景下精确提取视 觉 SLAM 静 态 特 征 的 方 法:CN115439743AP.2022-12-06.CUI Bofei,HU Xizhi,LI Hongtao,et al.A Method for Accurately Extracting Visual SLAM Static Features in Parking Sc

37、ene:CN115439743AP.2022-12-06.(in Chinese)7 宁小娟,马杰,王锋涛,等.一种基于点云的室内场景物体提取方法:CN109034065B P.2022-08-16.NING Xiaojuan,MA Jie,WANG Fengtao,et al.An Object Extraction Method for Indoor Scene Based on Point Cloud:CN109034065B P.2022-08-16.(in Chinese)8 周景岩,刘兴亮,崔东,等.一种上下匝道行为场景数据采集、识别与提取方法和系统:CN114863689AP.2

38、022-08-05.ZHOU Jingyan,LIU Xingliang,CUI Dong,et al.A Method and System for Data Collection,Recognition and Extraction of Up-and-Down Ramp Behavior Sce-narios:CN114863689A P.2022-08-05.(in Chinese)9 张宇飞,覃斌,郑建明,等.自然驾驶场景数据特征点选取的场地测试用例提取方法与系统:CN114637667A P.2022-06-17.ZHANG Yufei,QIN Bin,ZHENG Jianming

39、,et al.Field Test Case Extraction Method and System for Feature Point Selection of Natural Driving Scene Data:CN114637667A P.2022-06-17.(in Chinese)10邢智超,方锐,刘兴亮,等.一种跟驰行为场景数据采集、识别、分类提取系统及方法:CN113487874B P.2022-07-01.XING Zhichao,FANG Rui,LIU Xingliang,et al.A System and Method for Data Collection,Rec

40、ognition,Classification and Extraction of Following Behavior Sce-narios:CN113487874B P.2022-07-01.(in Chinese)11陆思宇,李开兴,梁斯硕.一种基于信号规则的自动驾驶前车切入场景提取方法:CN114489079A P.2022-05-13.LU Siyu,LI Kaixing,LIANG Sishuo.A Extraction Method for Cutting Scenarios of Autonomous Driving Front Vehicle Based on Signal

41、Rules:CN114489079AP.2022-05-13.(in Chinese)12郭洪艳,张家铭,刘俊,等.一种针对人机共驾测试的侧方插入场景提取方法:CN114328465A P.2022-04-12.GUO Hongyan,ZHANG Jiaming,LIU Jun,et al.A Side Insertion Scene Extraction Method for Human-Machine Co-driving Test:CN114328465AP.2022-04-12.(in Chinese)13杜莹,于乐乐.一种车辆循线行驶场景提取方法:CN113343892A P.202

42、1-09-03.DU Ying,YU Lele.A Vehicle Driving Scene Extraction Method:CN113343892A P.2021-09-03.(in Chinese)14李卫兵,吴贤静,李娟,等.泊车典型场景的提取方法、设 备、存 储 介 质 及 装 置:CN112132111AP.2020-12-25.LI Weibing,WU Xianjing,LI Juan,et al.Extraction Method,Equipment,Storage Medium and Device of Typical Parking Scene:CN11213211

43、1A P.2020-12-25.(in Chinese)15陈华,熊英志,梁黎明,等.用于智能驾驶系统测试的典型自然驾驶场景识别提取方法:CN111599181B P.2020-10-27.CHEN Hua,XIONG Yingzhi,LIANG Liming,et al.Typical Natural Driving Scene Recognition Extraction Method for Intelligent Driving System Testing:CN111599181B P.2020-10-27.(in Chinese)685汽车工程学报第 13 卷16石娟,郭魁元,张志

44、强,等.一种自动驾驶前车切入切出场景提取方法:CN111324120A P.2020-06-23.SHI Juan,GUO Kuiyuan,ZHANG Zhiqiang,et al.A Extraction Method for Cutting in and out Scenarios of Autonomous Driving Front Vehicle:CN111324120A P.2020-06-23.(in Chinese)17吴平,周舟,李鹏辉,等.一种基于自然驾驶数据的泊车场景提取系统和方法:CN109910872B P.2019-12-10.WU Ping,ZHOU Zhou,L

45、I Penghui,et al.A Parking Scene Extraction System and Method Based on Natural Driving Data:CN109910872B P.2019-12-10.(in Chinese)18ZHAO Jinxin,FANG Jin,YE Zhixian,et al.Large Scale Autonomous Driving Scenarios Clustering with Self-Supervised Feature Extraction C/2021 IEEE Intelligent Vehicles Sympos

46、ium(IV),July 11-17,2021,Nagoya,Japan.Piscataway NJ:IEEE,c2021:473-480.19MEN Jianfeng,YANG Liu.Driving Scene Supplementary Class Balancing Network for Edge Driving Scene Recog-nition C/2022 International Joint Conference on Neural Networks(IJCNN),July 18-23,2022,Padua,Italy.Piscataway NJ:IEEE,c2022:1

47、-8.20赵树廉,吴思宇,赵鹏云,等.基于最小临近点迹和航迹关联的多源目标融合方法 J.汽车工程学报,2022,12(5):593-603.ZHAO Shulian,WU Siyu,ZHAO Pengyun,et al.Multi-Source Target Fusion Method Based on Minimum Proximity Track and Track AssociationJ.Journal of Automotive Engineering,2022,12(5):593-603.(in Chinese)作者简介田浩东(2001-),男,河南鹤壁人,本科在读,主要研究方向为智能网联汽车环境感知与决策控制。Tel:18375999331E-mail:通信作者赵树廉(1977-),男,广西全州人,博士,主要研究方向为自动驾驶场景库及工具链、自动驾驶评价体系、功能安全及预期功能安全。Tel:15601117777E-mail:686

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服