毕设英文翻译.docx

上传人:b****3 文档编号:4593189 上传时间:2023-05-07 格式:DOCX 页数:19 大小:2MB
下载 相关 举报
毕设英文翻译.docx_第1页
第1页 / 共19页
毕设英文翻译.docx_第2页
第2页 / 共19页
毕设英文翻译.docx_第3页
第3页 / 共19页
毕设英文翻译.docx_第4页
第4页 / 共19页
毕设英文翻译.docx_第5页
第5页 / 共19页
毕设英文翻译.docx_第6页
第6页 / 共19页
毕设英文翻译.docx_第7页
第7页 / 共19页
毕设英文翻译.docx_第8页
第8页 / 共19页
毕设英文翻译.docx_第9页
第9页 / 共19页
毕设英文翻译.docx_第10页
第10页 / 共19页
毕设英文翻译.docx_第11页
第11页 / 共19页
毕设英文翻译.docx_第12页
第12页 / 共19页
毕设英文翻译.docx_第13页
第13页 / 共19页
毕设英文翻译.docx_第14页
第14页 / 共19页
毕设英文翻译.docx_第15页
第15页 / 共19页
毕设英文翻译.docx_第16页
第16页 / 共19页
毕设英文翻译.docx_第17页
第17页 / 共19页
毕设英文翻译.docx_第18页
第18页 / 共19页
毕设英文翻译.docx_第19页
第19页 / 共19页
亲,该文档总共19页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

毕设英文翻译.docx

《毕设英文翻译.docx》由会员分享,可在线阅读,更多相关《毕设英文翻译.docx(19页珍藏版)》请在冰点文库上搜索。

毕设英文翻译.docx

毕设英文翻译

一种提高车牌识别准确度的算法

LihongZhenga,∗,XiangjianHeb,BijanSamalib,LaurenceT.Yangc

a.澳大利亚查尔斯特大学计算机与数学院

b.澳大利亚悉尼科技大学IT工学院

c.加拿大圣弗朗西斯泽维尔大学计算机系

摘要

本文提出了一种算法用来提取(检测)和在交通视频数据集车牌的识别。

对于车牌检测,我们介绍一个方法,这个方法将全局边缘特征和局部Haar-like特性应用来构建有160特性由6层组成的级联分类器。

在车牌上图像的的字符用基于一种改进的去除不需要的区域的斑点检测算法被提取出来。

对于车牌识别(即字符识别),一个开放的来源OCR被修改和使用。

我们所提出的系统在可怜的照明条件和对移动车辆来说是健壮的。

我们的整个系统是有效的,可以应用于实时应用程序。

实验结果使用交通视频证明。

关键字:

车牌检测,统计特征,Haar-like特征,图像分割,斑点检测,OCR

1介绍

车牌识别已经被应用于各种场合,在停车场内能用来自动识别车辆,在严格区域能用来车辆访问控制,能用来识别和验证那些丢失的车辆。

一个车牌识别系统主要由两个方面组成:

车牌检测和字符识别。

车牌检测是车牌识别系统很重要的一步。

车牌检测算法直接影响到车牌识别的准确度。

此外,很多因素也能够影响车牌检测的精度和效率。

例如:

车牌检测的质量可能由于环境照明条件下,图像透视失真,图片上的文本等原因而被削减。

大多数现有的车牌检测算法被各种控制条件如固定背景[1],已知颜色[2]或指定相机和汽车的之间的范围[3]等条件限制了。

因此,它对于在复杂环境下的车牌检测仍然是一个挑战性的问题。

有两种类型的方法用来字符识别。

一种方法是使用商业光学字符识别(OCR)软件来识别字符[4]。

另一种方法是使用基于学习的方法来识别字符[5]。

这两种方法在控制条件下和当摄像机安装在固定位置不摆动时已经高达99%的精度。

然而,当照明条件差或当车辆移动时,精度受损。

在本文中,我们提出了一个包含以下贡献的LPR系统。

首先,我们介绍一个使用AdaBoost算法来准确地检测一个车牌的级联分类器,然后,我们提出一个方法,那个方法使用污点检测算法和识别算法来有效提高字符分割的精度。

为了验证我们的LPR系统,我们将光学字符识别应用到字符识别。

车牌检测算法如图所示[7]中构造一个六层车牌检测的级联分类器。

分类器的前两层是基于两个全球统计特性,通过简单的学习过程而演练。

然后,剩余的四层分类器通过基于局部Haar-like特征的学习算法训练。

受过严格训练的分类器准备在整个输入图像识别车牌的位置。

基于全局特征的分类器减少了检测算法的复杂性。

基于局部Haar-like特性的分类器能进一步提高检测率和降低假阳性率。

它比那些应用离散小波变换(DWT)来定位车牌显示了更好的性能。

[9]

图1构建级联分类器的过程

OCR在识别印刷文件或没有或者是很少噪声的环境的文本显示了它的优势。

然而,车牌图像实时捕获通常含有大量噪声和复杂的背景。

因此,它对于正确地移除边界和分割车牌是具有挑战性的。

无论使用哪一种OCRs,如果字符不是正确地分割,那么识别精度将会大大降低。

近年来,已经有很多研究出来的算法来用于车牌字符的分割。

这些算法包括基于霍夫变换[10]的算法,基于水平和垂直预测[11]算法,和用于提高处理速度和精度的操作环境扫描算法[12]。

然而,对于当车牌边界连接到内部字符,字符互相连接,和不完整的字符的情况下,准确、实时分割字符仍然是一个问题(13、14)。

在本文中,我们采用我们的最近的方法,这种方法可以正确有效地分割出车牌上的字符。

这种方法是基于一些著名的技术如图像二值化、边缘检测、图像投影,连接成分分析。

我们也将斑点检测算法整合进这种对字符分割的方法。

接下来的文章组织如下。

第2节中,我们概述车牌检测和定位。

第3节对两个全球统计特性和局部Haar-like特性进行了综述。

在第4节中给出了包括颜色、边缘检测、逆向blob萃取的字符分割技术。

实验结果演示在第5节。

比较和讨论在第6节描述。

最后,我们在第7节中得出本文结论。

2.车牌检测

正如[7]所示,检测算法的基本观点是在输入的车辆图像上使用一个变量扫描窗口来回移动。

在每个位置,扫描窗口覆盖的图像区域使用前培训分类器来分类成一个牌照区域(积极的决定)或非车牌区域(一个消极的决定)。

使用该算法的分类器[7]是一个显著的延长在车牌检测[15]提到的百合和琼斯的工作。

在这个算法[7],一个六层的级联分类器被构造来提高检测速度,其中前两个层是基于全局特征和最后四层是基于局部Haar-like特征。

分类过程可以作为一个退化的如图1所示的包含多层分类器的决策树。

从第一个分类器得出的积极的结果触发第二分类器的评估。

第二分类器的积极结果触发第三分类器,等等。

在任何层出现的消极结果导致图像区域(块)的直接拒绝。

换句话说,这些没有被初始分类器拒绝的图像区域将被一系列的分类器处理。

如果任何分类器拒绝所选图像区域,这一区域将会没有进一步的处理。

这是常见的,对于一个给定的车辆图像,评价图像区域的绝大多数是负面的。

因此,图1所示的级联分类器试图在早期阶尽可能多的拒绝那些负面区域。

作为其推论,这个级联分类器将导致车牌的快速检测。

它也值得注意,检测算法(分类)作用于输入车辆图像的垂直边缘图像而不是原始图像强度值。

这进一步提高了级联分类器的效率。

接下来,在两个方面进一步描述算法[7]:

训练和测试。

训练是分类器学习通过使用样品做出正确决定的一个过程。

测试是使用前训练分类器分类独特图像块的一个过程。

2.1训练

为了获得能做出正确决定的级联分类器,预分类的积极样本(图片包含车牌)和负样本(图片包含非车牌号码)被选择用来培训。

在我们的实验中,所有积极样本通过手动标记在不同条件下捕捉的车辆图像的车牌区域而获得。

所有负面样本在已经被手动去掉车牌的车辆图像中提取。

一起构成级联分类器的单个分类器独立训练。

回想一下,第一两层的分类器是基于全局特征和在其他四层的分类器是基于局部Haar-like特性.

为了训练在第一层的分类器,第一个全局特征的价值,称为边缘密度(定义在第三节),为每个输入样本计算。

统计方法被用于选择一个阈值,这个阀值可以正确地分类所有积极样本(即,使用选定的边缘密度阈值,所有的样本都在“积极的”侧)。

注意,阈值不是唯一的。

还注意到,对于一个给定的阈值,一些消极的样本可能被错误地分类为“积极”,即,一些非车牌块可以归类为“牌照”。

这些被称为错误的积极性。

因此,一个可以正确地分类所有积极样本和生产最少数量的错误积极的阈值是选定的。

对于第二层分类器,另一个全局特征被使用。

它被称为边缘密度差异,也会在第三节中定义。

所有在第二层用于训练分类器的输入样本来自使用第一个分类器训练后的“积极的”分类结果。

因为第一个分类器的错误率通常是零,第一个分类器归类为积极的样本包含真正的积极样本和一些负面的样本。

通过合理选取另一个基于第二个全局变量的阈值,我们可以把所有的积极样品归类为“积极的”和生产最低假积极。

基于第二个全局特征的第二层的分类器从而获得。

再次,第二个分类器的培训使用类似于那些用于第一个分类器的统计方法来实现。

同样,用来训练第三层的分类器的样本在是那些被前两层分类器过滤为积极的样本。

与都是基于全局特征的前两个层次不同,第三层分类器到第六层都是基于局部Haar-like特征。

更详细的功能将在第三节中给出。

我们会发现,在任何图像区域,总数量的Haar-like特性是非常大的和远远大于区域内像素的总数量。

为了确保快速分类,AdaBoost学习算法用于选择表现最好的分类器(称为弱分类器),每一个都基于Haar-like特性,并结合这些多个弱分类器来构造一个分类器(称为强分类器)。

这个过程多个回合被完成。

在每一回中,一个最优弱分类器被选中。

AdaBoost算法为每个样本介绍了权值。

通过在每个回合中连续不断的增大硬样本的权值和选择相应的表现最好的弱分类器直到构造出符合预先设定的精度的最强分类器,然后一个强大分类器被构造,在这层完成训练。

同样,这些被第三层划分为积极的样本输入到第四层,等等。

最后,一个六层的级联分类器被构造。

因为在这算法中的局部和全局特征由输入图像的垂直边缘图像产生,在任何特征提取出来之前图像的垂直边缘被计算。

第三节定义了一个新的垂直边缘图,我们的检测算法在那上面运行。

此外,为方便训练,在训练前所有样本图像区域扩展至48×16像素。

这个选定的尺寸和在车辆图像仍可识别的最小车牌差不多大小。

.

2.2测试

级联分类器被训练和满足预定义的分类精度后,它可以用于车牌号的检测。

在测试过程中,被选中的输入图像和扫描窗口用半窗宽的水平步伐和半窗高垂直步伐移动在整个图像空间。

在每一个位置,子区域(即通过扫描窗口覆盖)的全局和局部特征作为需要而被提取,然后作用在这些特征上的已训练的级联分类器对扫描窗口覆盖的图像区域进行分类,分为积极性,即“牌照”,或负面的,即,一个“非车牌”。

本程序通过整个图像执行直到所有图像区域都被扫描到。

此外,由于检测算法作用于输入图像的垂直边缘图,垂直边缘图检测在检测前第一个执行。

为了检测多个尺寸的车牌,检测通过利用多尺度而实行。

基本的扫描窗口尺寸设置为48×16。

窗口的大小,然后用比例因子为1.2扩展到300×100。

这种设计使我们的算法检测各种尺寸的车牌成为可能。

图2给出了一个例子,这个例子表明使用我们的算法可检测的车牌有大约48×16像素的最小尺寸(见图2(a))和300×100像素的最大尺寸(见图2(b))。

在这两种情况下,车辆图像都有512×384像素。

(a)(b)

图2.小和大的车牌图像的例子

在我们的检测算法,在每个位置被扫描窗口覆盖的图像子区域由基于从各区域获得的特征值的预训练的分类器分类。

在垂直边缘检测的预处理后,所有的各种外观的车辆图像被转换垂直边缘图,而这垂直边缘图是黑色和白色的,而黑色和白色表示指示在每个图像像素的垂直边缘强度的灰度级强度。

因此我们使用类似于那些已经在[15]的车牌检测系统已经成功的Haar-like特征。

因为在[15]中只有局部特征被使用,基于如此简单特征的分类器需要更多的特征。

反过来说,这会使系统计算昂贵和不稳定。

在我们的算法中,除局部Haar-like特征以外,我们也将使用全局统计特征。

我们将在下面的章节中详细描述了这两种特征。

3.全局和局部特征

在3.1和3.2节中,在[7]定义的两个全局特征回顾了下,它们是边缘密度和边缘密度方差。

在3.3节中,讨论了Haar-like特征[6,7]。

车牌区域具有一些共同的,明显的,简单的特点。

首先,一个车牌区域由于文本的存在通常含有丰富的边缘信息。

其次,车牌区域大多数的边缘是垂直边缘。

第三,垂直边缘在车牌区域的分布相对均匀的区域被描述。

因此,我们总结出两个全局边缘特征用来车牌检测识别三个特征。

这两个特点描述了包含车牌区域边缘的全局分布,并在下面更详细地描述。

3.1边缘密度[7]

边缘密度将图像区域描述为一个整体。

它被定义为:

Ev(I,j)是图像位置(i,j)垂直边缘的大小,N是图像区域的非零垂直边缘的像素数。

而垂直边缘可以用公式

(2)来计算。

在公式中,G(I,j)和α(I,j)代表各自位置的梯度级数和角度。

记得,在训练过程中,块的大小被固定为样本图像的大小,这始终是48×16。

在测试程序,图像区域的大小根据扫描窗口的尺度的变化而变化。

Sobel梯度算子产生的梯度图,其中图像的最大梯度强度会使结果的梯度幅度正常。

3.2.边缘密度差异[7]

除了丰富的边缘信息,注意到车牌上的突出字符通常相对均匀间隔的分布。

作为其结果,与其他区域相比,车牌上块的梯度和相应的垂直边缘分布根据类似的强度被分布地更加均匀。

图3给出了实例前景和背景图像。

(a)车牌(b)背景

图3.两个不同区域中垂直边缘的描述

为了得到密度变化特征,一块被分为12个大小相等的子块,如图3所示。

让gi表示在第i个子块的垂直边缘强度的平均值,和g表示整个街区的垂直边缘强度平均值。

然后,该块的密度变化,表示为VG,被定义为:

n表示的是子块的数目,在上例中n=12

上述定义的密度变化,值将从0到1,是一个块平均垂直边缘强度的比值。

这样,无论是强或弱的垂直边缘,只要有通过块均匀分布相似的强或弱的垂直边缘,密度变化将保持低变化。

3.3局部Haar-like特征[6,7]

Haar-like特征起源于Haar基函数。

他们由许多相邻的矩形覆盖图像区域(见图4)。

一类Haar-like特征值在白色矩形和灰色矩形的像素平均值之间是不同的(在本文的的算法,它们是垂直边缘强度)。

Haar-like特征代表图像块的局部性质,因为每一个白色矩形与灰色矩形是相邻的。

一类Haar特征视它的类型和大小和图像区域的矩形位置而定。

这些矩形有相同的大小和形状用来计算单一的Haar-like特征,它们是水平或垂直相邻的。

由于在图像区域矩形的数量,大小和位置都是可变的,在图像区域会有很多的Haar-like特征。

在本文中如图4所示我们使用四种类型的Haar-like特征[7],一个两矩形特征值在两个垂直或水平相邻的矩形区域内的像素总和是不同的(见图4上的两个数字)。

一个三矩形特征值的像素值是两个外部矩形的像素值总和减去在矩形中心像素值的总和(见左下图4图)。

一个四矩阵特征值计算作为在矩形对角线像素值和之间的差异(参见图4右下图)。

这些矩形可以有任意大小和位置,只要他们位于图像区域内。

图4.Haar-like特征的四种类型

用上述方式得到的Haar-like特征形成一套完整的特征[15],它可以捕捉到一个对象的内部结构和一定的变换不变性。

然而,包含所有的Haar-like特征值的字典太大。

在48×16图像区域中有成千上万Haar-like特征。

显然,它计算所有功能来分类太耗时了。

然后要找到最好特征成为一个挑战了。

AdaBoost算法[7]是一个从一个非常大数量潜在特征中选择一个小数量特征的很好的选择。

训练后,选择的表现最好的分类器(称为弱分类器)相结合来构建一个强分类器。

Adaboost算法[7]的基本思想如下。

在构建一个弱分类器后,样本用那些已经分配但被错误分类的较高权重被重新给出权值。

然后,下一个弱分类器用重新加权样本训练。

许多弱分类器就这样训练直到达到给定的错误积极率。

最终的分类器(称为一个强分类器)通过组合这些使用一组权重的弱分类器来构造。

这些权重是由每个弱分类器的分类误差来确定。

4.车牌字符分割

一旦牌照区域被发现,接下来的步骤是找到包含在图像中的字符。

字符分割程序包括三个不同的任务。

第一个是字符高度估计。

字符位置的上、下边界和用于获取字符高度。

然后,我们估计字符的宽度和分割车牌。

最后一步是为验证字符段而构成的基于块的提取算法标记的字符分割段。

4.1车牌字符高度估计

这一步包括三部分:

颜色反转,垂直边缘检测和水平投影直方图。

4.1.1.颜色反转

在新南威尔士州(NSW)的车牌,澳大利亚有许多不同的格式,颜色,和路线。

例如,黑夹白,白夹黑,黄夹白,黑色等通常被用来颜色组合。

选择正确的颜色(例如,黑色)给车牌字符之前彩色储备这一步是必要的,从而获得一个正确的二进制的车牌图像。

它使在车牌字符的颜色是黑色。

它是基于边缘统计分析。

给定当地的图像,我们选择车牌图像的水平对称线。

索引号为Ci的颜色指数被计算为沿水平方向每条线的交叉点的平均数量(在黑色和白色之间的像素值的变化)。

如果有一个前景点,交叉点的数量就增加一。

j是从1到l的,i是从1到N,如果在位置(I,j)有一个前景点,F(I,j)就是1。

如果颜色索引值在一个统计选择阈值之上,候选图像被标记为被转换的图像。

否则,为下一步保持原有的价值。

因此,所有候选车牌为白底黑色,感兴趣区域的一致性被保持。

4.1.2.垂直边缘检测

一旦一个车牌区域被检测和定位,利用第2节描述的算法得到的车牌一个矩形区域可能不足以覆盖整个车牌。

因此我们执行一个简单的面积扩大计算使放大区将充分覆盖整个车牌。

图5显示了一些最后的车牌图像的矩形区域的例子

图5.被定为车牌的图像样本

假定所处的区域在垂直方向比水平方向显示更强的连通性,我们通过水平梯度值的计算在图5所示的车牌上来进行垂直边缘检测。

在每个像素中,使用[-303;-10010;-303]的索贝尔面具计算水平梯度值[16]。

然后,采用Otsu方法[二值化获得垂直图17]。

更多关于Otsu方法法将在第4.2.1解释。

边缘像素使用白色像素和使用黑色像素的其他像素来表示。

图6显示了图5中的图像边缘的垂直像素。

图6(a)在图5中的垂直边缘检测(b)水平投影直方图

4.1.3.水平投影直方图

虽然投影直方图不是一个新概念,它在这里是在获得垂直边缘后用来找到一个车牌的上、下界,我们通过水平投影预测来找到字符位置的顶部和底部。

一个直方图值是在水平方向沿特定路线白色像素的总和。

当所有值沿着水平方向所有的线被计算出来,就得到了水平投影直方图。

然后,直方图的平均值来作为一个阈值确定上限和下限边界。

直方图的中间区域大于被上限和下限的范围记录的阈值。

图6(a)显示的六张图像的水平直方图预测在图6(b)中显示。

最后,上部和下部的边界之间的距离被记录为字符的高度值。

4.2车牌字符宽度估计

虽然由车牌上限和下限的范围确定的区域边界被发现,超过上限和下限的区域被删除。

没有车牌的上下边界的剩余区域被考虑用来车牌上的字符分割。

在这里分割包括图像二值化和垂直投影这两个步骤。

这里的每一段可能包含一个或两个字符。

注意,下列过程中,我们使用分割结果来估计车牌的字符宽度。

每一段不需要精确到正好包含一个字符。

4.2.1图像二值化

众所周知,图像二值化是将图像的灰度值转换成二进制值和相应地代表二进制图像。

图像的二值化增亮感兴趣的像素和抑制背景像素。

图像二值化的最简单的方式是选择一个阈值,和所有高于此阈值的像素值分类为白(255灰度值),和所有其他像素为黑色(0灰度值)。

Otsu[17]在全部范围内选择一个好的阈值给出了一个主意。

Otsu法是基于整个图像的灰度级的直方图分析和对于一个给定的图像通过最大化判别准则选择最佳的阀值,例如,在灰度级合成类的可分性。

图7显示了图5中的图像在切割车牌上部和下部的边界后二值化的结果。

图7.图5中移除上界和下界的图像的二值化的图像

4.2.2.垂直投影直方图

我们执行垂直投影找出一个车牌字符之间的差距。

一个直方图值是在垂直方向上沿着一条线的白色像素的总和。

当计算出在垂直方向沿着所有线的所有的值时,就得到了垂直投影直方图。

图8显示图7的图像垂直投影。

图8.图7的垂直投影图像

基于垂直投影结果,每个车牌被投影直方图零点水平地分割成块。

图9显示了从删除后的上限和下限的垂直投影的结果得到在图5中图像的段(或块)。

图9车牌的字符分割

估计的高度和宽度的字符将被用于下一步的blob检测(提取)。

4.3通过斑点提取识别字符块

如图9所示,并不是所有的在以前的程序获得的段是包含字符的块。

一些块实际上只有车辆的背景和车牌的左、右边界。

这样背景下的统计特征与那些字符非常相似。

这些特征是不足以区分从字符块得到的背景块。

大约只有70%的字符块能有效地被识别出。

因此,另一种方法被寻求来提高成功率。

这种方法的目的是只保留包含字符的块,删除那些不包含字符的块。

通过这样做,一个斑点提取算法用于跟踪车牌左侧和右侧的字符块。

牌照的左、右边界也将定位并删除。

这一步包括两个部分:

斑点检测和斑点验证算法。

4.3.1斑点检测算法

斑点检测算法[8]是另一种图像分割技术,这种技术标记图像的像素为不同的团体中一个。

它是一种基于连通域分析算法(CCA)[8]的扩展方法。

斑点检测算法只在我们的系统中被限制为二进制图像。

它包括区域标记,连接的组件标记,斑点发现,和区域提取。

斑点能够可数,过滤和跟踪。

众所周知的斑点检测算法可以分为两类:

基于像素的算法[8]和运行算法[14]。

对于给定的图像,他们都给每个像素分配标签以致相同特征的相邻像素分配相同的标签。

图像被复制到一个小的或大的数组。

基于像素的算法做了多次扫描。

在另一方面,运行方法一次只搜索连接的像素。

在本文中,为了达到在最快的处理速度,第一种方法被应用到斑点发现。

简单的思想描述如下。

首先,创建一个标签计数器和并初始化为一。

然后,从左到右,从上到下扫描二值图像。

对于每一个像素,对于一个给定的区域检查东北,北,西北,西像素(在二进制图像初始值为1)。

(a)如果周围像素不符合标准,然后分配到该区域的计数器的值。

区域计数器增加一。

(b)如果只有一个邻接像素符合标准,则将那个像素分配到那个区域。

(c)如果有多个邻接像素匹配并是同一地区的所有成员,则将像素分配到它们的区域。

(d)如果有多个邻接像素并是不同地区的成员,则将像素分配到它们地区中的一个(无论是哪一个)。

记录这些所有地区为“等效区域。

再次扫描图像,并将所有等效区域设置为相同值。

扫描停止直到没有标记的图像像素。

图10显示了从定位的车牌得到的红色框中提取块。

图10.从图5中的图像提取的块

4.3.2.斑点验证算法

值得注意的是,仍然有一些丢失的块,其中字符连接到边界。

接下来,我们将识别基于字符检测标准的块,这个过程后使非字符块可以被删除。

有许多不同的条件,这些条件可被选来作为检查标准。

这种情况的例子是上部和下部的边界位置,斑点面积,斑点周长,平均,密度,在4.2.1和4.2.2节显示的字符的估计宽度和高度,高宽比,和一个车牌最大字符量。

大部分都可以包括进字符块检测标准。

以下是用于我们算法的标准。

规则1。

如果一个斑点的上边界小于整体上边界,或者如果它的上边界大于整体低边界,候选斑点是一个非字符的。

规则2。

如果高宽比大于最高(即0.8)或小于最低(即0.3),候选人斑点是

认为是一个非字符。

规则3。

如果斑点面积比整个图像尺寸的六分之一要大,需要进一步细分。

规则4。

如果任何两个相邻邻段的宽度是获得2/3小于相同的车牌字符平均宽度,它们被会被连接到一个段(组合)。

规则5。

如果任何部分在前一步比字符平均宽度获得宽度的1/3,它将分为两段。

记录为一个可能字符块的斑点必须匹配被记录为一个字符块所有的条件和保持。

否则,斑点被视为非字符块从而被移除。

在所有给定的车牌被检查完后,这个过程完成。

然后,选中的斑点(字符)增大,在车牌的不必要的非字符区域被删除后组合在一起。

5实验结果

为了测试我们提出的检测算法的性能,共有460张车辆图像用于实验。

300车辆图像作为训练的图像,其中包含305张可见号码的车牌。

其他的160幅图像被用来作为包含169可见号码车牌的测试图像。

实验中使用的车辆图像是在各种灯饰条件和角度多种情况下采集的。

有各种各样的颜色、角度和车牌号码的风格。

用来训练基于全局特征的分类器的消极样本是通过从50幅图像随机选择28000个区域收集,那些图不包含任何牌照。

用在AdaBoost学习过程中的样本是从共有220幅不包含任何牌照的车辆图像中随机提取的。

在实验中,获得一个六层的级联分类器。

前两层每个分类器使用第3节中定义的一个全局特征。

在最后四层,强分类器的特性数量分别是19,34,47和58。

所以我们最后的级联分类器有6层,使用160个特征。

这个分类器比有38层,使用6060个特征的Viola&Jones分类器简单多了。

在实验中,160幅测试图像中有169个可见号码牌(在某些图像有不止一个号码牌),检测到163个号码牌照,检出率为96.4%[7]。

同时,

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 法律文书 > 判决书

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2