资源描述
第四届文鼎创杯华中地区大学生数学建模邀请赛 承 诺 书
我们仔细阅读了《第四届文鼎创杯华中地区大学生数学建模邀请赛的选手须知》。
我们完全明白,在竞赛开始后参赛队员不能以任何方式(包括电话、电子邮件、网 上咨询等)与队外的任何人(包括指导教师)研究、讨论与赛题有关的问题。
我们知道,抄袭别人的成果是违反竞赛规则的, 如果引用别人的成果或其他公开的 资料(包括网上查到的资料),必须按照规定的参考文献的表述方式在正文引用处和参 考文献中明确列出。
我们郑重承诺,严格遵守竞赛规则,以保证竞赛的公正、公平性。如有违反竞赛规 则的行为,我们将受到严肃处理。
90005009
我们的竞赛编号为:
B
我们的选择题号为:
参赛队员(打印并签名):
蔡时茂
队员 1:
李风光
队员 2:
王 琨
队员 3:
(以下内容参赛队伍不需要填写)
评阅编号:
武汉工业与应用数学学会
第四届文鼎创杯华中地区大学生数学建模邀请赛竞赛组委会
一种基于直方图统计与多帧平均混合算法的车流量检测模型
摘要
新一代智能视觉监控技术的研究是一个极具挑战性的前沿课题, 它旨在赋予监控系 统观察分析场景内容的能力,实现监控的自动化和智能化,因而具有巨大的应用潜力。 在智能视频监控系统中, 对包含运动目标的图像序列进行的分析处理主要由运动目标检 测、分类、跟踪和视频内容分析等几个基本环节组成。其中目标检测技术作为系统的最 底层,是进行各种后续处理的基础。
本文通过建立数学模型采用统计直方图和多帧平均混合的算法解决如何从视频图 像中提取出高质量的背景图像和车辆图像的问题,为车辆的外形、速度、流量等一系列 参数的处理提供前提,并根据附录视频中提取的背景图像进一步应用,建立了计算车流 量的模型。
具体地讲,针对问题一,我们利用统计直方图和多帧平均混合的方法, 提取出背景 图像,并考虑到环境的光线等因素的不断变化,及时对背景进行更新。对于不同光线背
景下的差分图像,采用 Otsu 求阈值技术,得到车辆的二值化图像。
如下图所示:
图 1 (a)实时路况图像 (b)对应背景图像 (c)二值化图像
针对问题二,我们以问题一中得到的背景为基础,运用虚拟线检测法,在采集到的 视频图像帧中,在每条车道上人为地设置一条横向的虚拟线,利用检测线处产生的颜色 灰度变化是否超过设定的阈值来检测车辆是否通过并计数,得到如下结果:
车道 程序数车 人工数车 漏数 多数 漏检率/% 虚警率/% 准确率/%
1 68 70 2 0 2.86 0 97.14
2 22 22 0 0 0 0 100
3 44 43 0 1 0 2.27 97.73
4 43 43 0 0 0 0 100
5 28 28 0 0 0 0 100
6 13 14 1 0 7.14 0 92.86
7 55 53 0 2 0 3.64 96.36
总计 273 273 3 3 1.10 1.10 97.80
表1 实验检测数据
关键词 :目标检测技术; 背景提取与更新;虚拟线车流量检测法;统计直方图和多帧平 均; Otsu 阈值技术
1
1 问题重述
问题重述:
传统的视频监控由人工进行视频监测发现安全隐患或异常状态,或者用于事后分 析,这种应用具有其固有的缺点,难以实现实时的安全监控和检测管理。为解决这一问 题,智能视频分析技术应运而生。 智能视频分析在国内又称之为智能视频监控,是在近 年计算机网络和硬件技术飞速发展的大背景下逐步发展起来的一门新兴技术, 它旨在利 用计算机视觉技术、图像视频处理技术和人工智能技术对监控视频的内容进行描述、理 解和分析,并能根据分析的结果对视频监控系统进行控制,从而使视频监控系统具有较 高层次的智能化水平, 目前已成为提高视频监控系统效能的主要发展方向和产品竞争的 一个研究热点。 具体应用在交通管理中, 带有智能分析功能的监控系统,如智能交通系 统(ITS), 可以通过区分监控对象的外形、动作等特征,做到主动收集、分析数据,并根 据预设条件执行报警、记录、分析等动作。视频检测技术能够利用计算机视觉和图像处 理方法建立一个智能交通管理系统 , 在不需要人干预或者很少人干预的情况下 , 通过 对摄像机拍录的视频序列进行分析以实现车辆的定位、 识别和跟踪, 并在此基础上分析 和判断车辆的行为 , 对车辆的行为给出语义描述 , 做到了既能完成日常管理 ,又能在发 生异常情况时做出及时反应。由于 ITS 的信息具有多源、异构等典型特征 ,所以对信 息的处理、检索和提取,已成为 ITS 发展和运用的关键。而进一步对于信息处理而言, 其关键技术是建立合理的数学模型。 请你们利用所学知识解决以下两个问题:问题一: 根据提供的视频,建立提取附录提供的视频图像的数学模型;问题二:结合已提取的背 景,建立计算车流量数学模型。
2 问题分析
题目为我们提出了两个问题。其一是根据提供的视频,建立提取附录提供的视频图 像的数学模型;其二是结合已提取的背景,建立计算车流量数学模型。 问题一要求我们 通过建立数学模型监视公路上是否有行使的车辆,并为提取视频图像,为相关参数如该 车速、车牌、交通流特征等的获取做好前提工作。这一过程要完成2 个任务,一是目标 检测,即检测视频序列图像中被监视的场景图像是否有所变化,如果图像有变化,则说 明有新的目标出现,反之则认为没有新目标出现;二是目标提取,即检测有目标时,把 这个目标从视频序列图像中分割提取出来,为下一步目标跟踪和识别提供数据。问题二 要求我们基于已提取的背景图像,建立合适的数学模型,并完成交通车流量的交通参数 的计算。
为此,我们应该首先将附录中提供的视频压缩的 AVI 格式的文件保存在计算机中 (每秒 25 帧,每帧 320 240 像素),然后再通过对视频序列进行数字化处理,提取出图 像像素点(x,的灰度值,之后设计合理高效的算法提取出高质量的车辆二值化图像,并 应用已提取的背景图像,建立合适的数学模型, 完成交通车流量计算,最后结合实验实 际效果,分析模型的优缺点,提出模型的一些改进方向和扩展应用。
3 模型一
2
3.1 模型假设
假设 1:假设为阴天,即不考虑车辆阴影
假设 2:假设除车辆以外道路上没有其它运动物体
假设 3:不考虑运动物体的临时停靠
3.2 符号说明
(x,y) :二维图上的图像点
t :时间
T :阈值
i :帧标号
N :等分的灰度区间数
n :灰度区间标号
S :区间计数统计
:灰度平均值
:类直方图之和
:类分离指标
C (x, y) : t 时刻背景图像中点(x,y)的灰度值
t
i
C (x, y) :第 i 帧中点(x,y)的灰度值
I (x, y) : t 时刻路况图像中点的(x,y)灰度值
t
3.3 模型准备
图像数字化:将图像分成 X,Y 的二维坐标图,用 m 表示背景像素点(x,y)的灰度值, 则背景图像可表示为(x,y,m)的集合。
3.4 模型分析
提取背景图像即如何求每帧中每一点的灰度值 m, 可以根据视频序列特定象素位置 出现频率最高的象素值作为背景象素值这一基本原理,利用直方图与多帧复合的算法[1] 把每一个 m 确定。 得出初始背景后, 因为在不同时刻的背景图像也不同, 所以背景图像 应可以随时更新,所以必须有一个背景更新的算法,求每一帧新背景的基本原理就是先 得到当前背景差分图像, 若点(x,y)的 D (x, y)为 0, 则新背景中该点的灰度不变, 若不为
t
0,则该点的灰度取原背景灰度的 90%与差分值的 10%相加的和。这样新背景与原背景 之间是渐变的,与实际也相吻合。最后利用实时路况图像与对应时刻的背景图像作差分 处理,采用 Otsu 法选定一个最佳灰度阈值,得到车辆的二值化图像。
3.5 模型建立与求解
3.5.1 背景提取
将图像中某点(X ,Y)的灰度范围[0,255]等分为若干区间[0,256/N],[256/N,2×256
3
/N]…[(256-256/N), 255], N为等分区间数。对应于某个象素的每个区间,我们考虑 其落在区间内象素点的灰度值的平均值 山 及区间的计数统计S。当前i帧的在第n个区间
上的平均值 山 的表达式可参照多帧平均的更新公式,即:
i ,n
4
B (x, y) = 1 xt C (x, y)
i N i
i=t一N+1
i
其中C (x, y)为第i帧中图像点(x ,y)的灰度值
当Ct (x, y) 仁 (n 一 1)根 n 根 2N(5)6 时
山 (x, y) = (1一 a) . 山 (x, y) +a . C (x, y) i ,n i 一1,n t
当Ct (x, y) 茫 (i 一 1)根 i 根 2N(5)6 时
山 (x, y) = 山 (x, y) i ,n i一1,n
(1)
(2)
(3)
在计算区间的计数统计S时也引入计数贡献因子,主要是为了能更好的跟踪背景的
变化,当前图像象素值对区间计数值的贡献是 1,而前一帧图像象素值对区间计数统计 值的贡献为 b ,则区间的计数统计S可表示为下式:
当Ct (x, y) 仁 (n 一 1)根 n 根 2N(5)6 时
S (x, y) = b . S (x, y) + 1
i ,n i 一1,n
当Ct (x, y) 茫 (i 一 1)根 i 根 2N(5)6 时
S (x, y) = S (x, y)
i ,n i 一1,n
(4)
(5)
这样将直方图灰度划分成区间段, 对帧中的每个象素点计算 山 和 S 后, 比较不同
i ,n i ,n
区间段的 S 后, 将具有最大 S 的区间上的 山 作为背景像素(x,y,m)中的灰度值m。 求出
i ,n i ,n i ,n
了所有的灰度m, 从而知道所有的图像点(x,y,m),即得出了背景图像。
用上述方法得到附录视频中背景图像如图 :
图2 (a)原始视频序列图像 (b)提取的背景图像
3.5.2 背景更新
由于环境的光线等因素在不断地变化,要准确检测出运动车辆,需要及时对背景进 行更新。获得初始背景图像后,接下来就是在获得初始图像的基础上进行背景的动态更
新,得出每一时间段内的背景图像。记当前帧中图像点(x,y)在t 时刻的灰度值为 I (x, y),
t
背景图像中相同点的灰度值为C (x, y),通过计算当前帧和背景帧的差值,得到当前背景
t
差分图像 D (x, y ),有:
t
5
D (x, y )= I (x, y )- C (x, y )
t t t
(6)
对背景进行更新:
t t
Ct +1 (x , y ) = 〈 , y )丰 0 时 (7)
查阅资料得到上式中 a 取0.1时效果比较好, 即表明在新的背景中, 原来的背景占有 90%的比例,这一点也是与实际相符合的,背景之间的变化只能是渐变的,所以在相邻 的背景之间有着很大的相似性。因此利用上述方法,得到的更新结果是比较理想的。
详图如下:
图3 (a)初始背景图像 (b)t时刻背景图像 (c)t+1时刻背景图像
3.5.3 二值化处理
提取视频图像的最终目的就是把车辆从背景中提取出来, 所以必须利用实时路况图 像与对应时刻的背景图像作差分处理, 即选定一个灰度阈值T将图像分成大于T的像素群 和小于T的像素群, 只要T选取合适就可以将车辆从图像中提取出来。 可以采用1978年提 出的Otsu法[2]选取最佳阈值:
对于灰度级为0~255, X Y的一副图像,记C x, y 为图像点(x,y)处的灰度值。
Otsu具体步骤:
s
(1)计算图像的直方图统计结果,得到灰度值为k的频率 P k 为:
P k 1 1 (8)
C x , y k
s X Y
(2)计算图像的灰度均值 t 为:
255 k P k (9)
t s
k 0
(3)计算灰度类均值 s 和类直方图之和 s 为:
s s k P k (10)
s
k 0
s s P k (11)
s
k 0
(4)计算类分离指标 为:
(s) (s)2
s1(s) (12)
最后求出使 达到最大值的s, 则最佳阈值T=s。
6
如图所示为用Otsu法得到的T=40作为阈值的二值化处理图像。
图 4 (a)实时路况图像 (b)对应背景图像 (c)二值化图像
3.6 模型应用:
3.6.1 视频图像提取模型在静态交通参数分析中的应用
在道路交通监控体系中,常常需要对车辆的一些静态交通参数进行分析,比如说车 辆的车牌、 外形等。 对于静态参数只需一帧图像中即可检测出, 下面以车辆的形状为例, 下面是利用视频图像提取模型提取出的二值化图像:
图 5 (a)实时灰度图像 (b)分割后的图像 (c)处理后的图像
对于智能监控体系中的分析系统而言,从处理后的图像图 5(c)中分析出的该车辆矩 形形状大小来判断车型是可行的。
3.6.2 视频图像提取模型在动态交通参数分析中的应用的重要性
对于车辆的检测,除了外形等静态参数以外,更多地是检测其动态交通参数, 因为 是动态数据,所以需要多帧图像做对比,发现一帧图像与先前帧的不同之处,从不同之 中构建出求动态参数的算法,因此视频提取模型提取出高质量的二值化图像尤为重要。 这是所有动态参数检测的根基,根基出错,后续步骤的正确性就没有保障。
4 模型二
4.1 模型假设
假设 1:除车辆外无其他运动物体
假设 2:假设为阴天,即不考虑车辆阴影
假设 3:在虚拟检测线附近无占道行驶车辆
7
4.2 符号说明
t :时刻
n :虚拟检测线长度
s :车辆的计数统计
line[n] :检测线上对应时刻的灰度值
init-back[n] :背景的初始估计值
sum-diff :不同时刻灰度差之和
sum-diff-min :不同时刻灰度差之和的最小值
4.3 模型分析
车辆检测和交通流参数检测是 ITS 的基础, 其中基于视频虚拟检测线的交通流参数 检测是当前视频检的一个热点。虚拟线检测法[2]是指在采集到的视频图像帧中,在每条 车道上人为地设置一条横向或纵向的虚拟线, 利用虚拟检测线处产生的颜色灰度变化是 否超过设定的阈值来检测车辆是否通过,运算量小,可以满足实时性要求,同时还可以 测量与交通控制相关的多个参数。另外由于越靠近图像于底部的地方车辆越大,车辆之 间的间隔也越大。因此,检测线的位置应尽量靠近图像底部,减少由于车辆跟得太紧而 引起的漏检现象。现在匝道路口设立虚拟检测线,每条车道设一条检测。(如图为方便 计算,设定水平的检测线,且车道从左至右依次标记为 1~7)
图 6 虚拟检测线的位置
4.4 模型建立
下面以任意一个车道为例说明车流量计算的方法。
4.4.1 初始背景提取
设计通过虚拟检测线的方法进行交通车流量等交通参数的计算。在实时图像中 ,根 据虚拟检测线设置在图像上的位置 ,对应于采集到的某一帧实时图像的灰度信号 ,得到 检测线上某一时刻的灰度值,设为line[n]。其中n为检测线的长度。
应用模型一中的背景提取方法, 设求得检测线位置的背景灰度值作为背景的初始估 计值,记为init-back[n]。
把对应不同相邻时刻(t以帧为单位)的line[n]设为line t[n] ,将line 1[n],line 11[n],line 21[n],line 31[n],line 41[n]检测线上像素点的灰度值(Y信号)分别存入五个数组vback-buff 1[n]—— vback-buff 5[n]中。通过对相隔50帧的两个这样的数组的对应像素作差 ,再用差
8
sum-diff= n diff i[k ]
值的绝对值累加和来确定没有车经过的检测线。即,line 51[n]与line 1[n]作差,line 61[n] 与line 11[n]作差,并以line 51[n]覆盖line 1[n] ,并以line 61[n]覆盖line 11[n], 以此类推,分 别存在diff i[n]中,i= 1,2,3,4,5。设
9
(13)
k=1
这样, 只有当作差的两个时刻检测线上都没有车 ,或有完全相同的两辆车或同一辆 车经过时,sum-diff[i]值最小。因此,第一次背景建立用100帧的时间, 以后每次用50帧的时 间即可求得一组新的sum-diff [i],并从中求出一个最小值sum-diff-min,该最小sum-diff [i] 对应的line t[n]认为是检测线上没有车的图像数据。
比如当前缓冲区存的是line 1[n]到line 41[n],那么输入的line 51[n]与line 1[n]的间隔 是50帧(2秒,PAL制)。这样在车速大于20km/h,车长小于11m的条件下(通常情况下满足 此条件) ,不可能有同一辆车既经过时刻1又经过时刻51。但是有完全相同的两辆车既经 过时刻1又经过时刻51的可能性却不能排除。 但这种情况的几率很小,可用时间域求平均 的办法予以消除。
4.4.2 阈值的确定与车流量计算方法
背景的初始估计值建立之后 , 即可以根据设定的阈值确定检测线上有没有车通过。 阈值设定的正确性及其自适应能力直接决定能否正确地检测出车辆。 下面介绍了取阈值 =3 sum-diff-min的方法。
sum-diff= n
line[n] init-back[n]
(14)
k 1
当 sum diff > 时,认为有车经过。 但实验证明,该法有时会出现每帧都检测到车的错乱 现象。 这是由于sum-diff-min的最小值理论上为零,零的倍数仍为零。 这样,检测线上受外 界影响产生的一些小波动就很容易被误检为有车经过。
设
s = n
line[n] init-back[n]
> n
(15)
k 1
初始阈值取sum-diff-min对应的line t[n]按上式得到的s值, 阈值更新值取检测到无车 的line t[n]按上式得到的s与原来阈值的加权平均 ,则既可以消除瞬间图像亮度信号的突 变,又可以消除检测线上个别亮点的影响。
new-T=0.8 old-T+0.2 1/n s (16)
其中new-T为新的阈值,old-T为旧的阈值,加权系数由实验得到。
4.4.3 背景更新算法
仍用前述数组line t [n],每隔10帧对检测线取样。但是只有检测线上没有车时才对相 应数组vback-buff[n]更新。例如, 当检测到line 151[n]上没有车时才用其覆盖line 101[n] , 并记录更新次数,否则跳过此次更新。 当5个数组更新次数累计达到5次时,求sum-diff-min 和相应的line t[n],用其与当前背景求加权和作为新的背景值。
new-back[n]=0.9 old-back[n]+0.1 line t[n] (17)
其中new-back[n]为新的阈值,old-back[n]为旧的阈值,加权系数由实验得到。
4.5 模型求解和检验
通过对算法的求解,现将程序数车的结果和人工数车的结果进行比较,用漏检率、 虚警率、准确率作为指标来评价系统的性能,其各自定义如下:
漏检率=系统漏检车辆的数目/程序数车的总数量;
虚警率=系统多数车辆的数目/程序数车的总数量;
准确率=1-漏检率-虚警率。
根据附件提供视频图像文件,实验测得数据如表1所示。
车道
程序数车
人工数车
漏数
多数
漏检率/%
虚警率/%
准确率/%
1
68
70
2
0
2.86
0
97.14
2
22
22
0
0
0
0
100
3
44
43
0
1
0
2.27
97.73
4
43
43
0
0
0
0
100
5
28
28
0
0
0
0
100
6
13
14
1
0
7.14
0
92.86
7
55
53
0
2
0
3.64
96.36
总计
273
273
3
3
1.10
1.10
97.80
表2 实验检验数据
从以上实验结果可以看出检测系统的准确率较高, 平均97.80%, 造成车辆目标的提 取出现一些误差。初步分析是由于车辆阴影和变道、占道行为导致的。
5 模型评价
5.1 模型一的优缺点
5.1.1 模型一的优点
视频运动检测主要有模板匹配法、光流法、特征匹配法、帧间差分法、背景差分法 等。模板匹配法和特征匹配法由于现实中车辆本身外形多变,因此比较难建立准确的模 型,且运算复杂,达不到实时性要求;而光流法计算复杂,现阶段无法用于实时处理; 帧间差分法易受噪声的影响,检测精度和可靠性不高。因此背景差分法被认为是比较适 合于交通视频中运动目标检测的方法,其计算开销较小,对噪声的抗干扰能力较强,检 测精度较高。而背景差分法的效果主要取决于背景图像提取的准确性,其主要涉及到对 于背景如何估计的问题,同时在交通场景中由于环境的变化,如场景中光照条件引起的 亮度改变、物体运动引起的背景遮挡、临时停靠路面车辆等,导致背景图像并不是静止 不变的。在实际应用中,如果直接用当前图像与未动态更新的背景图像差分进行分割, 则会产生不理想甚至是错误的分割, 因此需要采用好的背景提取与自适应更新算法以期 减少动态场景对于准确分割的影响。现有的背景提取算法一般都可分为 3 类: (1)时域 滤波; (2)直方图分析; (3)神经网络。这些算法性能各有优缺点,适合的场景也不尽相 同。在几种背景提取与自适应算法中,多帧图像平均算法计算量小,在前景目标较少时 比较理想,而在处理实际复杂场景中的车速过慢、堵车现象时将出现模糊和拖尾现象, 实验数据表明这种算法特别是在城市交通视频的应用在提取出的背景图象效果很不稳
10
定。而基于判决反馈的改进多帧平均算法在一定的程度上缓解了这些问题,但图像还不 够平滑。
本文采用的将直方图的统计方法与多帧平均相结合的方法是一种新颖的尝试, 相关 的文献资料介绍也比较少,这种算法克服单纯的多帧图像在车流量多、车速低时出现拖 尾和模糊的现象,且相对于混合高斯模型,其计算复杂度较低,它受场景的影响较小, 估计的背景也较为稳定,所得到的背景估计图最接近真实的背景,且能被应用到实际的 场合。此外该算法能够利用现有的 TI DM642 DSP 硬件平台实现,从实验图像可以看出 其结果与前两种算法相比,提取的背景更符合实际场景。
5.1.2 模型一的缺点
基于直方图统计与多帧平均混合的算法处理的是图像的灰度信息, 受车辆阴影的影 响较大,因为阴影与和与运动物体一样都显著区别于背景,且与其对应物体是相邻的 , 运动规律相同, 在分割的时候常常被合并成一个整体。
5.2 模型二的优缺点
5.2.1 模型二的优点
该算法采用 Linux 嵌入式平台, 内核高效稳定,且开发成本低,具有较高的检测精度 和自适应能力。所用虚拟检测线法计算量小, 因此图像处理有较好的实时性。实验证明, 该系统的车辆存在检测的准确率达 97.80%。
5.2.2 模型二的缺点
在车流量检测时采用固定开窗的方式来进行车辆计数,容易由于车辆变道、占道而 导致错误和重复计数。
6 模型的改进与推广
6.1 模型的改进
6.1.1 针对车辆阴影影响无法避免的问题,我们考虑采用一种基于边缘信息的背景
差车流量检测方法[4]。该方法利用边缘信息作为车辆的检测特征,实时自动提取和更新 背景边缘,然后用当前的路况边缘减去背景边缘来获得运动边缘图像。具体地讲,在图 像预处理和边缘检测中,采用 sobel 算子进行边缘检测效果较好。之后,采用“基于变 化因子的参考背景学习”方法来进行背景边缘图像的提取和更新。提取了背景边缘图像 之后,用实时的路况边缘图像减去提取的背景边缘图像,所得的差值图像就是运动边缘 图像。为了进行后续车辆计数和车型统计的方便, 通常要将运动边缘图像转化为二值图, 因此需要确定二值化的阈值。为了使算法具有较强的鲁棒性和自适应性,可采用迭代法 (最佳阈值法)来自动确定二值化的阈值,最终得到二值化后的运动边缘图像。动态开窗 的算法设计
6.1.2 针对由于车辆变道、占道而导致的漏检和错误、重复计数问题,我们考虑在 检测带中采用动态开窗的方式检测车辆的边缘,进行车辆计数和车型统计。通过观察二 值化后的运动边缘图像可以发现,尽管车辆的水平边缘可能存在断裂和不连续点,但它
11
们在垂直方向的边缘点累加数却基本上总是非零值。因此当车辆进入检测带时,车辆所 在位置对应的检测带垂直投影直方图分量总是一串连续的非零值。 而这串连续非零值的 宽度或个数,基本上就是进入检测带的车辆轮廓宽度。因此本算法进行动态开窗的具体 做法就是:实时扫描检测带垂直投影直方图,在发现连续非零值的地方动态开辟一个跟 踪检测窗口;窗口以该连续非零值串的中间点为水平中心,宽度比该连续非零值串的长 度稍大一些,高度与检测带相同;然后在下一次扫描检测带垂直投影直方图时,跳过已 有的跟踪检测窗口所对应的直方图分量,直到车辆通过检测带、跟踪检测窗口被销毁后 才恢复对这些位置直方图分量的扫描。此外,算法还在已有的跟踪检测窗口中实时检测 车辆轮廓的水平中心位置和最大宽度, 相应地动态调整跟踪检测窗口的水平中心位置和 窗口宽度,从而实现对车辆位置和车辆宽度的自动跟踪。动态开窗的效果如图 7 所示。
图 7 动态开窗的效果
6.2 模型的推广
6.2.1 车辆检测算法
图8 车辆存在与速度检测原理示意
如图,沿车行方向设立速度检测区。它由30条虚拟检测线组成,标号分别为line 1[n] ——line 30[n]。
若line(i) [n]第一次检测到有车, 同时line (i+1)[n]——line 30[n]无车,则车辆从line(i) [n]进入检测区;以此类推,若line(i) [n]——line 30[n]第一次检测到有车, 同时line(i-1) [n] ——line 1[n]无车,则认为车辆从line(i) [n]驶出检测区。
每条检测线间的距离已知,根据车辆进、 出速度检测区的检测线号和帧差算出车速。 同理可以得到平均车流量、车头距、平均车速等其他的统计数据。
12
每条检测线上判断车辆存在的算法如下 :
设背景值为new-b[n], 即,若有
13
n line t[k ] n
new-back[k]
n > new-T
(18)
k =1 k =1
成立,认为检测线上有车存在。
整条检测线的背景亮度均值与当前帧检测线亮度均值超过阈值则认为检测线上有 车存在,把检测线作为一个整体,大大提高了检测精度。
为了避免同一辆车经过检测线时多次计数的情况 , 即前1帧状态为有车 ,后一帧状态 为没有车时 ,计数检测器才执行加1操作。实验证明 ,该算法的车辆存在的检测精度可达 97.80%。
6.2.2 车型统计
在设置虚拟线的同时确定虚拟线中平均每条车道的宽度, 然后通过实验可以获得各 种车型的车辆宽度与车道宽度的比例范围,通常只要确定摩托车、小型车和大型车三种 车型即可。由于同一车型的车辆宽度与车道宽度的比例值是基本不变的,因此有了这些 先验值之后,无论虚拟线设置在什么位置,当车辆通过检测带时,都可以根据车辆的最 大宽度与车道宽度的比例值来确定车辆的类型,进行车型统计。
7 参考文献
[1] 李晓飞, 梅中辉,一种基于直方图统计与多帧平均混合的背景提取算法, 南京邮电 大学学报第 28 卷第 6 期:page1, 2008 年 12 月
[2] 郭怡文,袁飞虎,基于背景差分的多车道车流量检测系统, 电光与控制学报第 17 卷 第 9 期: page3, 2010 年 9 月
[3] 李香平,杨兆选,基于虚拟线的视频交通检测新算法, 电子测量与仪器学报第 19 卷 第 4 期 : page1,2005 年 8 月
[4] 罗东华,余志,李熙莹,陈锐祥,张辉,基于边缘的背景差法在车流量检测中的应 用,光电工程学报第 34 卷第 11 期: page2,2008 年 6 月
展开阅读全文