1、智能网联汽车技术概论第二章无人驾驶汽车环境感知技术o研究目的 o无人驾驶的成功开发涉及包括告警地图、实时定 位、障碍检测以及安全避障等多种技术,而这所有的 环节都离不开传感器。在无人驾驶架构中,传感层被 比作为汽车的“眼睛”,包括车载摄像头等视觉系传 感器和车载毫米波雷达、车载激光雷达以及车载超声 波雷达等雷达系传感器。本章将分别介绍上述三种激 光雷达,双目及单目摄像头,以及GPS全球定位系统 的基本工作原理及在无人驾驶中的应用。目录 Catalogue.5GPS全球定位系统o激光激光雷达无人驾驶技术包含了高精地图、实 时定位、障碍物检测等在内的多种技术,而激光雷达在这些技术中都能发挥重要 作
2、用。本节主要介绍激光雷达的基本工 作原理及其在无人驾驶技术中的应用与 挑战。激光雷达系统应用构架图J激光雷达基础知识激光雷达(Light Detection And Ranging,LiDAR)是一种光学 遥感技术,是一种可以精确、快速获取地面或大气三维空间信息的 主动探测技术,其应用范围和发展前景十分广阔。它的工作原理是:首先向目标物体发射一束激光;然后根据接受-反射的时间间隔确定 目标物体的实际距离;再根据距离以及激光发射的角度通过几何关 系推到出物体的位置信息。此外根据反射信号的信号强弱和频率变 化等数,还可以确定被测目标的运动速度、姿态以及物体形状信息。激光雷达关键技术一点无人车在运行
3、过程中LiDAR并不是静止不 动的。在无人车的行驶过程中,LiDAR同时以 一定的角速度匀速转动,并在转动过程中不断 地发出激光并收集反射点的信息,以便得到全 方位的环境信息。LiDAR在收集反射点距离的 过程中也会同时记录下该点发生的时间和水平 角度(Azimuth),并且每个激光发射器都有其 编号和固定的垂直角度,根据这些数据就可以 计算出所有反射点的坐标。LiDAR每旋转一周,所收集到的所有反射点坐标的集合就形成了点 云(Point Cloud)o如图展示的是谷歌无人驾 驶公司Waymo在无人汽车上的激光雷达的布局 小意图。RadarRadarVision System RadarJ激光
4、雷达的优点及其在无人驾驶技术中的应用/_/激光雷达主要有如下几方面的优点:(1)具有极高的分辨率。激光雷达工作于光学波段,频率比微波高 23个数量级以上,因此,与微波雷达相比,激光雷达具有极高的 距离分辨率、角分辨率和速度分辨率。(2)抗干扰能力强。激光波长短,可发射发散角非常小(p rad量 级)的激光束,多路径效应小(不会形成定向发射,与微波或者毫 米波产生多路径效应),可探测低空/超低空目标。(3)获取的信息量丰富。可直接获取目标的距离、角度、反射强度、速度等信息,生成目标多维度图像。(4)可全天时工作。激光主动探测,不依赖于外界光照条件或目标 本身的辐射特性。它只需发射自己的激光束,通
5、过探测发射激光束 的回波信号来获取目标信息。J激光雷达的优点及其在无人驾驶技术中的应用_/基于上述优点,激光雷达在无人驾驶中有多种应用,主要有面向高 精度地图的绘制、基于点云的定位,以及障碍物检测等,激光雷达 的应用途径包括:高精地图的绘制无人车定位障碍物检测JLi DAR技术面临的挑战技术挑战材质 由于激光雷达基于对激光脉冲返回传感器所需时间的测量,因 此高反射率的表面会带来问题。大多数材料从微观水平上看表面粗糙,并 且向所有方向散射光;这类散射光的一小部分返回到传感器,并且足以产 生距离数据。然而,如果表面反射率非常高,光就会向远离传感器的方向 散射,那么这一区域的点云就会不完整。环境 空
6、气中的环境也可以对激光雷达读数造成影响。空气中的悬浮 物会对光速产生影响。因而大雾和雨天均会减弱影响激光雷的精度,并且 研究表明,雨滴的半径及其在空中的分布密度直接决定了激光在传播过程 中与之相撞的概率。相撞概率越高,激光的传播速度受到的影响越大。为 了解决这些问题,较大功率的激光器投入使用,但它对于无人汽车这种较 小的、移动的以及对功率敏感型的应用来说并不是一个好的解决方案。JLi DAR技术面临的挑战计算挑战激光雷达系统面临的另一个挑战是计算量问题。受复杂的光学器件旋 转速度的限制,普通LiDAR旋转时的刷新速率相对较慢。通常情况下LiDAR 系统最快的旋转速率大约是10Hz,这限制了数据
7、流的刷新速率。当传感器 旋转时,假设以60kni/h行驶的汽车在1/10秒内行进1.67米,因此传感器对 于在汽车驶过期间在这1.67米内发生的变化是无法检测到的。更重要的是,激光雷达在理想条件下的覆盖范围为100T2 0米,这对于以60km/h行驶的 汽车来说仅需6-7秒的行驶时间。因此为了解决无人汽车的行驶过程造成的LiDAR监测不准确的问题,一个 比较通用的方式是提升LiDAR的采样刷新速率。但这也会导致严重的计算 挑战。即使是最低的16线LiDAR每秒钟要处理的点也要达到30万个。如此 大量的数据处理使得无人车定位算法和障碍物检查算法的实时性受到极大 的影响。JLi DAR技术面临的挑
8、战成本挑战对于激光雷达来说,高昂的设备成本是它需要克服的最大挑战之一。尽管自该技术得到应用以来其成本已大幅降低,但仍然是它被大范围采用 的一个重要障碍。对于主流汽车工业来说,价值2万美元以上的传感器将 无法被市场接受,因此无疑会大大阻碍无人车的商业化。毫米波雷达OJ毫米波雷达基本原理/毫米波(MiHimeter Wave,MMW)是指长度在110mm的电磁波,对 应的频率范围为30300GHz。毫米波位于微波与远红外波相交叠的波 长范围,所以毫米波兼有这两种波谱的优点,同时也有自己独特的 性质。毫米波雷达(MiHimeter Wave Radar)测距原理很简单,就是把 无线电波(毫米波)发出
9、去,然后接收回波,并根据收发的时间差测 得目标的位置数据和相对距离。根据电磁波的传播速度,可以确定 目标的距离为:s=ct/2,其中s为目标距离,t为电磁波从雷达发射 出去到接收到目标回波的时间,c为光速,也即电磁波传播的速度。J毫米波雷达在汽车ADAS中的应用对于车辆安全来说,最主要的判断依据就是两车之间的相对距 离和相对速度信息。特别车辆在高速行驶中,如果两车的距离过近,是容易导致追尾事故。凭借出色的测距测速能力,毫米波雷达被广 泛地应用在自适应巡航控制(ACC)、前向防撞报警(FCW)、盲点 检测(BSD)、辅助停车(PA)、辅助变道(LCA)等汽车ADAS中。本书主要介绍毫米波雷达在自
10、适应巡航、自动紧急制动、前向 防撞预警以及变道辅助三个ADAS功能中的应用。(1)基于毫米波雷达的自适应巡航(2)基于毫米波雷达的自动紧急制动(3)前方防撞预警功能(4)变道辅助J展望未来一智能毫米波雷达开发/V毫米波雷达作为汽车ADAS的最核心传感器之一,目前最大的“缺陷”就是因分辨 率不高,无法辨识行人和对周围障碍物进行精准的建模,而高分辨率智能雷达传感器 对于实现高级自动驾驶至关重要。所以有些毫米波雷达企业正着力于开发雷达的成像 技术。为了实现两技术的结合,各毫米波雷达企业采用不同的技术进行了大胆的创新。其中表现比较突出的有:麦得威国际(Metawave)新一代成像雷达产品WARLORD
11、和 Arbe Robotics公司Ultres系统。前者采用了新型的超材料天线,能发射可操控的高度 定向的电磁波束,同时在雷达产品中嵌入了AI引擎,以实现对物体的发现、识别、跟 踪和分类;而后者的雷达方案是基于数学算法的合成孔径雷达(SAR)成像技术,所谓 SAR成像技术是指利用大带宽发射信号实现距离向高分辨率、利用相对运动等效长合成 阵列实现方位向高分辨率的雷达成像技术)。虽然这些成像技术目前还有一些待改善 的地方,不过都已经取得不错的突破性进展,相信在不久的L4级和L5级自动驾驶汽车 上发挥重要作用。J超声波雷达工作原理/_/与毫米波雷达类似,超声波雷达(UltraSonic Radar)
12、的工作原理是通过 超声波发射装置向外发出超声波,到通过接收器接收到发送过来超声波时的 时间差来测算距离。超声波雷达的常用探头的工作频率有40kHz,48kHz和58kHz三种。一般来 说,频率越高,灵敏度越高,但水平与垂直方向的探测角度就越小,故一般 采用40kHz的探头。超声波雷达防水、防尘,即使有少量的泥沙遮挡也不影响。探测范围在 0.卜3米之间,而且精度较高,因此非常适合应用于泊车。车载超声波雷达一 般安装在汽车的保险杠上方,隐藏在保险杠的某个位置。J超声波雷达的应用/超声波的能量消耗较缓慢,在介质中传播的距离比较远,穿透 性强。并且超声波雷达价格只有几十到几百元人民币,且技术成熟 稳定
13、。因此超声波雷达除了可以用于障碍物检测外,还可以在无人 驾驶中有多种应用:(1)泊车库位检测(2)高速横向辅助J超声波雷达的挑战由于超声波的传输速度很容易受天气情况的影响,尤其是超声 波有较强的温度敏感性,在不同的温度下,传输速度不同。超声波 传播速度与环境温度T近似成正相关关系。因此相同相对位置的障碍 物,在不同温度的场景下,测量的距离不同。对传感器精度要求极 高的自动驾驶系统来说,要么选择将超声波雷达的测距进行保守计 算;要么将温度信息引入自动驾驶系统,提升测量精度。此外由于相比于光与电磁波,超声波的传播速度较慢,当汽车 高速行驶时,使用超声波测距无法跟上汽车的车距实时变化。因此 超声波雷
14、达在速度很高的情况下测距离一定的局限性,误差较大。另一方面,超声波散射角大,方向性较差,在测量较远距离的 目标时,其回波信号会比较弱,影响测量精度。但是,在短距离测 量中,超声波测距传感器具有非常大的优势。o单目及双目摄像头o*目视觉单目视觉(Monocular Vision)是指通过单个摄像头拍摄的图像 来实现三维空间的重建。单目视觉获得的图像本质上是2 D的,当知 道物体的实际大小时,利用相机的小孔成像模型即可以获知距离。用一个简单的公式计算前方物体与摄像机之间的距离:/=ADH基于单目视觉测距关键技术道路检测由于基于单目视觉的目标测距需要先对目标物体进行识别,再针对物体进行测距。因此在目
15、标识别 前尽可能的去除掉画面中的无关背景与前景对于降低算法计算量有重要意义。通过识别车道线可以有效 锁定目标识别区域。目前,车道线检测算法主要适用于光照充足的环境下。由于车道线与路面之间对比 度大,因此很容易利用各种常规边缘检测算子获得清晰的车道轮廓信息,然后选取合适的阈值对图像进 行二值化处理,最后采用Hough变换识别车道线。然而在复杂光照环境下,图像会受到各种光线直射和物体多次反射形成杂散光的干扰,图像光强不 能反映车道本身突变性质,导致无法正确检测出车道。在这种情况下可以利用光密度差得到车道标线与 路面反射率差,进而进行非线性边缘检测,再进行Hough变换的车道检测算法。此算法可以有效
16、解决在 复杂光照条件下的车道检测,也可以用于夜间的车道检测。另外,目前车道线的跟踪研究主要采用固定区域法或者Kalman滤波法,根据前一帧车道线检测的结 果来划分感兴趣区域,以实时跟踪车道线。然而,固定区域法对2帧图像的相关性依赖大,划分感兴趣 区域大,实时性差;而Kalman滤波法划分感兴趣区域小,容易产生检测误差,而造成跟踪误差累积,跟 踪正确率不高。在这种情况下可以在跟踪车道线时采用一种融合固定区域法和Kalman滤波法划分感兴趣 区域的新方法:一般来说,只将车道边界线交点(即灭点)以下、2车道线之间的区域作为感兴趣区域,考虑到跨道行驶的车辆依然对本车有威胁,算法把两车道线分别向两侧平移
17、40个像素,使感兴趣区域扩 展到可以覆盖跨道车辆的范围。J基于单目视觉测距关键技术/V(2)车辆检测图像中包含车辆前方很大视野内的物体,如道路、树木、护栏、标牌以及其他车辆,要从中准确检测出前方车辆是一项困难的工作。要实现车辆的快速检测,首先需要根据车辆的基本特征进行初步检 测,将所有可能的疑似车辆区域从图像中提取出来,然后再根据其 他特征对疑似区域进行筛选排除。基于单目视觉测距关键技术车辆跟踪现关心的是前方车辆与本车相对的二维位置和速度,因此只需要使用 卡尔曼滤波器预测横坐标X、横向速度VX、纵坐标y、纵向坐标vy这四个状 态向量。此外由于x方向和y方向的状态向量没有直接联系,所以可以将其
18、分为两组分别处理。在车辆行驶过程中,由于颠簸或遮挡等原因,系统可能会将路牌、灌 木丛等物体误认为是车辆检测出来,产生虚警。而这些虚警物体往往只能 在连续数帧图像中存在。如果不采取措施,系统就会时常产生短促的报警。当图像采样间隔足够短时,相邻帧内同一车辆的位置会具有很大的相 关性。通过采用检测与跟踪相结合的方法,根据第n帧图像获得的信息,预测车辆在第n+1帧图像中的位置等信息,并与n+1帧图像中实际检测到的 结果进行比对。如果二者匹配度最大且超出一定值,则认定为同一车辆,继续进行跟踪、报警,否则认为此车已被遮挡或消失,暂时不做处理,数 帧后将被剔除出去。基于单目视觉测距关键技术 测距报警车间测距
19、通常采用几何投影模型,本书采用一种简化的车距模型公式:LXW=CO其中L为两车间距,单位为m;W为图像上目标车辆处车道宽度,单位为 pixel;C为常数,可通过事先的标定获得。然而两车间安全车距S采用文献推导 的临界安全车距公式动态得到:v(2v-v)S=0.36v+0.33匕+上一-U b 259式中:vr为相对车速,由对测出车距求导得到相对车速后进行卡尔曼滤波得 到;vb为本车车速,可由GPS或车载雷达得到。应当注意的是,如果告警频率过高,容易使驾驶员麻痹大意,过低可能使驾 驶员来不及做出反应,因此可以采用由远至近的三段报警。若车距dN1.5S,判定为3级威胁,发出长而缓的报警声,提醒驾驶
20、员前方有 障碍物,但暂无危险;若车距SWdW1.5S,判定为2级威胁,发出较急促的报警 声,提醒驾驶员减速;若车距dWS,判定为1级威胁,发出短而急的报警声,提 醒驾驶员制动;3种状态下的告警声差异很大,驾驶员可以很容易地根据报警声 判断威胁等级。超声波的能量消耗较缓慢,在介质中传播的距离比较远,穿透 性强。并且超声波雷达价格只有几十到几百元人民币,且技术成熟 稳定。因此超声波雷达除了可以用于障碍物检测外,还可以在无人 驾驶中有多种应用:(1)泊车库位检测(2)高速横向辅助单目视觉的评价/f相比于基于双目视觉和采用雷达测距的方式,基于单目视觉的 车辆检测于测距方式有着不可替代的优势:(1)相比
21、于双目视觉测距系统,单目视觉系统结构更加简单,成本更低。(2)基于单目视觉的距离计算过程中运算量更小,并且相比于 双目测距,由于单目存在几何模型约束优势,使得其具有更高的精 度与鲁棒性。3)单目视觉有效视场更大:单H视觉的刚体定位不仅不依赖 多个相机,定位空间还可以通过多个相机进行扩展而不发生视场范 围损失。J基于双目视觉测距的工作原理/V_/双目视觉(Binocular Vision)是机器视觉的一种重要形式,它 是基于视差原理并由多幅图像获取物体三维几何信息的方法。与人 类使用双眼观察物体的远近类似,双目视觉测量传感器是通过两台摄 像机同时摄取一个光条的图像,再通过两幅图像的匹配,得到光条
22、上 所有像素点分别在两幅图像中的位置,利用视差,即可计算该点的位 置以及深度信息。双目立体视觉系统一般由双摄像机从不同角度同 时获得被测物的两幅数字图像,并基于视差原理恢复出物体的三维 几何信息,重建物体三维轮廓及位置。J基于双目视觉的测距关键技术/_J图像获取双目体视的图像获取是由不同位置的两台或者一台摄像机(CCD)经过 移动或旋转拍摄同一幅场景,获取立体图像对。在如图2 T8所示的针孔模 型中,假定摄像机C1与C2的角距和内部参数都相等,两摄像机的光轴互相 平行,二维成像平面uOlv和uO2 V重合,Pl与P2分别是空间点P在Cl与C2上 的成像点。但一般情况下,针孔模型两个摄像机的内部
23、参数不可能完成相 同,摄像机安装时无法看到光轴和成像平面,故实际中难以应用。相关机构对会聚式双目体视系统的测量精度与系统结构参数之间的关 系作了详尽分析,并通过试验指出,对某一特定点进行三角测量。该点测 量误差与两CCD光轴夹角是一复杂的函数关系;若两摄像头光轴夹角一定,则被测坐标与摄像头坐标系之间距离越大,测量得到点距离的误差就越大。在满足测量范围的前提下,应选择两CCD之间夹角在5080之间。基于双目视觉的测距关键技术摄像机的标定对双目体视而言,CCD摄像机是利用计算机技术对物理世界进行重建前的基本测量工具,对它 的标定是实现立体视觉基本而又关键的一步。通常先采用单摄像机的标定方法,分别得
24、到两个摄 像机的内、外参数;再通过同一世界坐标中的一组定标点来建立两个摄像机之间的位置关系。目前常用的单摄像机标定方法主要有如下物种,它们有各自的优缺点:1)摄影测量学的传统设备标定法。利用至少17个参数描述摄像机与三维物体空间的结束关系,计算量非常大。2)直接属性变换性。涉及的参数少、便于计算。3)透视变换短阵法。从透视变换的角度来建立摄像机的成像模型,无需初始值,可进行实时 计算。4)相机标定的两步法。首先采用透视短阵变换的方法求解线性系统的摄像机参数,再以求得 的参数为初始值,考虑畸变因素,利用最优化方法求得非线性解,标定精度较高。5)双平面标定法。在双摄像机标定中,需要精确的外部参数。
25、由于结构配置很难准确,两个 摄像机的距离和视角受到限制,一般都需要至少6个以上(建议取10个以上)的已知世界坐标点,才能得到比较满意的参数矩阵,所以实际测量过程不但复杂,而且效果并不一定理想,大大地限 制了其应用范围。此外双摄像机标定还需考虑镜头的非线性校正、测量范围和精度的问题,目前 户外的应用还有少。J基于双目视觉的测距关键技术/v特征点提取立体像对中需要撮的特征点应满足以下要求:与传感器类型及抽取特 征所用技术等相适应;具有足够的鲁棒性和一致性。需要说明的是:在进 行特征点像的坐标提取前,需对获取的图像进行预处理。因为在图像获取 过程中,存在一系列的噪声源,通过此处理可显著改进图像质量,
26、使图像 中特征点更加突出。基于双目视觉的测距关键技术(4)立体匹配立体匹配是双目体视中最关系、困难的一步。与普通的图像配准不同,立体像对之间的差 异是由摄像时观察点的不同引起的,而不是由其它如景物本身的变化、运动所引起的。根据匹 配基元的不同,立体匹配可分为区域匹配、特征匹配和相位匹配三大类。区域匹配算法的实质是利用局部窗口之间灰度信息的相关程度,它在变化平缓且细节丰富 的地方可以达到较高的精度。但该算法的匹配窗大小难以选择,通常借助于窗口形状技术来改 善视差不连续处的匹配;其次是计算量大、速度慢,采取由粗至精分级匹配策略能大大减少搜 索空间的大小,与匹配窗大小无关的互相关运算能显著提高运算速
27、度。特征匹配不直接依赖于灰度,具有较强的抗干扰性,计算量小,速度快。但也同样存一些 不足:特征在图像中的稀疏性决定特征匹配只能得到稀疏的视差场;特征的撮和定位过程直接 影响匹配结果的精确度。改善办法是将特征匹配的鲁棒性和区域匹配的致密性充分结合,利用 对高频噪声不敏感的模型来提取和定位特征。相位匹配是近二十年才发展起来的一类匹配算法。相位作为匹配基元,本身反映信号的结 构信息,对图像的高频噪声有很好的抑制作用,适于并行处理,能获得亚像素级精度的致密视 差。但存在相位奇点和相位卷绕的问题,需加入自适应滤波器解决。J基于双目视觉的测距关键技术/v(5)三维重建在得到空间任一点在两个图像中的对应坐标
28、和两摄像机参数矩阵的条 件下,即可进行空间点的重建。通过建立以该点的世界坐标为未知数的4 个线性方程,可以用最小二乘法求解得该点的世界坐标。空间点、两摄像 机的光心这三点组成的平面分别与两个成像平面的交线称为该空间点在这 两个成像平面中的极线。一旦两摄像机的内外参数确定,就可通过两个成 像平面上的极线的约束关系建立对应点之间的关系,并由此联立方程,求 得图像点的世界坐标值。对图像的全像素的三维重建目前仅能针对某一具 体目标,计算量大且效果不明显。双目视觉的评价/V基于双目视觉的无人车感知过程具有很多独特的优势,但是也有其不 能忽视的缺点。优点:(1)从测距原理上来说,相比于单目视觉,双目视觉像
29、人类的双眼,主要通过两幅图像的视差计算来确定距离,因此双目摄像头不需要知道障 碍物是什么,只要通过计算就可以测距。从这一角度来说基于双面视觉的 测距算法无需大量训练集数据,简化了障碍物测距过程。(2)在测距精度上,基于双目视觉的测距方法比基于单目视觉的测 距方法精度要高。(3)对相机硬件要求低,成本也相对较低。因为不需要像TOF和结构 光那样使用特殊的发射器和接收器,使用普通的消费级RGB相机即可。(4)室内外都适用。由于直接根据环境光采集图像,所以在室内、室外都能使用。相比之下,TOF和结构光基本只能在室内使用。双目视觉的评价/V缺点:(,、对环境光照非常敏感。双目立体视觉法依赖环境中的自然
30、光线采集图像,而由于光照角度变化、光照强度变化等环境因素的影响,拍摄的两张图片亮度 差别会比较大,这会对匹配算法提出很大的挑战。另外,在光照较强(会出现过 度曝光)和较暗的情况下也会导致算法效果急剧下降。(2)不适用于单调缺乏纹理的场景。由于双目立体视觉法根据视觉特征进行 图像匹配,所以对于缺乏视觉特征的场景(如天空、白墙、沙漠等)会出现匹配 困难,导致匹配误差较大甚至匹配失败。(3)计算复杂度高。该方法是纯视觉的方法,需要逐像素计算匹配;又因为 上述多种因素的影响,需要保证匹配结果比较鲁棒,所以算法中会增加大量的错 误剔除策略,因此对算法要求较高,想要实现可靠商用难度大,计算量较大。(4)相
31、机基线限制了测量范围。测量范围和基线(两个摄像头间距)关系很 大:基线越大,测量范围越远;基线越小,测量范围越近。所以基线在一定程度 上限制了该深度相机的测量范围。oGPS全球定位系统oJGPS定位原理一三边测量法定位/_/GPS定位系统采用卫星基本三角定位原理,以GPS接收装置测量无线电 信号的传输时间来测距离。由每颗卫星的所在位置,测量每颗卫星至接受 器间距离,便可以算出接受器所在位置之三维空间坐标值。使用者只要利 用接受装置接收到3个卫星信号,就可以定出使用者所在之位置。在实际 应用中,GPS接受装置都是利用4个以上卫星信号,来定位出使用者所在之 位置及高度。JG PS定位系统中存在的误
32、差问题 行车定位是无人驾驶最核心的技术之一,全球定位系统(GPS)在无人 驾驶定位中担负着相当重要的职责。然而无人车是在复杂的动态环境中行 驶,尤其在大城市,GPS多路径反射的问题会很明显,这样得到的GPS定位 信息很容易就有几米的误差。对于在有限宽度高速行驶的汽车来说,这样 的误差很有可能导致交通事故。止匕外,由于GPS的更新频率低(10Hz),在 车辆快速行驶时很难给出精准的实时定位。因此我们必须借助其他传感器 来辅助定位,增强定位的精度。其中最常用的就是惯性传感器(Inertial Measurement Unit,IMU)。IMU是检测加速度与旋转运动的高频(IKHz)传感器,对惯性传
33、感器 数据进行处理后我们可以实时得出车辆的位移与转动信息,但惯IMU自身 也有偏差与噪音等问题,并且惯性传感器的输出需要对其自身的加速计进 行两次积分,使得很小的初始误差被放大和累积。而通过使用基于卡尔曼 滤波器的传感器融合技术,我们可以融合GPS与IMU数据,各取所长,以达 到较好的定位效果。JGPS和惯性传感器融合/VGPS是一种相对精准的定位传感器,但更新频率低,并不能满足实时 计算的要求。而惯性传感器的定位误差会随着运行时间增长,但由于其是 高频传感器,在短时间内可以提供稳定的实时位置更新。所以我们只要找 到一个方法能融合这两种传感器的优点,各取所长,就可以得到比较实时 与精准的定位。
34、下面我们讨论如何使用卡尔曼滤波器融合这两种传感器数 据。JGPS和惯性传感器融合(1)卡尔曼滤波器卡尔曼滤波器可以从一组有限的、包含噪声的物体位置的观察序列预 测出物体的位置坐标及速度。它具有很强的鲁棒性,即使对物体位置的观 测有误差,根据物体历史状态与当前对位置的观测,我们也可以较准确地 推算出物体的位置。卡尔曼滤波器运行时主要分两个阶段:预测阶段基于 上个时间点的位置信息去预测当前的位置信息;更新阶段通过当前对物体 位置的观测去纠正位置预测,从而更新物体的位置。举个具体例子,假设你家停电,没有任何灯光,你想从客厅走回卧室。你十分清楚客厅与卧室的相对位置,于是你在黑暗中行走,并试图通过计 算
35、步数来预测当前位置。走到一半时,你摸到了电视机。由于你事先知道 电视机在客厅中的大致位置,你可以通过你印象中电视机的位置去更正你 对当前位置的预测,然后在这个调整过的更加准确的位置估计的基础上继 续依靠计算步数向卧室前行。依靠计算步数与触摸物体,你最终从客厅摸 黑走回了卧室,这背后的道理就是卡尔曼滤波器的核心原理。JGPS和惯性传感器融合/V多传感器融合使用卡尔曼滤波器对惯性传感器与GPS数据进性融合与上面给出的例 子很相似。这里惯性传感器相当于数步数,而GPS数据相当于电视等参照 物的位置。首先我们在上一次位置估算的基础上使用惯性传感器对当前的 位置进行实时预测。在得到新GPS数据前,我们只能通过积分惯性传感器 的数据来预测当前位置。但惯性传感器的定位误差会随着运行时间增长,所以当接收到新的比较精准的GPS数据时,我们可以使用这个GPS数据对当 前的位置预测进行更新。通过不断地执行这两个步骤,我们可以取两者所 长,对无人车进行准确实时定位。假设惯性传感器的频率是IKHz,而GPS 的频率是10Hz,那么每两次GPS更新之间,我们可以使用100个惯性传感器 数据点进行位置预测。
©2010-2024 宁波自信网络信息技术有限公司 版权所有
客服电话:4008-655-100 投诉/维权电话:4009-655-100