不同人类的皮肤虽然相差很大,但在色度上的差异远远小于亮度上的差异,其实不同人的皮肤颜色在色彩上比较接近,但在亮度上的差异很大,在二维色度平面上,皮肤颜色的区域比较集中,可以用高斯分布描述。
其中每个像素的灰度对应该点与皮肤颜色的相似度,相似度的计算公式如下:
(2.21)
(2.22)
(2.23)
p(CbCr)=exp[-O.5(x-m)1C~'(x-in)]其中m为均值,m二E(x),C为协方差矩阵,
x=(CbCr)1,C=E{(x-m)(x-in1)肤色分布的2D高斯模型G(m,V2)也可表示为
m=(Cb.Cr)
其中,鬲石为Cb、C相应的平均值,U为协方差矩阵。
根据肤色识别原理识别人体肤色,再根据裸露皮肤最大的区域为人脸如图2-2所示:
图2-2
(1)卧姿的人脸定位
图2-2
(2)班跃的人脸定位
图2-2(3)行
走时的人脸定位
图2-2(4)坐姿的人脸定位
图2-2(5)奔跑时的人脸定位
第3章行为识别
日常生活人的基本姿态有站、坐、躺,组成一个姿态集合A:
A二{跳,走,跑,坐,躺}(3.1)
当前检测的姿态但是只有当图片中有人体时才能被检测出来,所以当图片中没有人体时则认为图片中的信息是非人体。
图3-1识别流程图
3.1灰度化
颜色可分为彩色和黑白。
颜色中不包含任何的色彩成分,仅由白色和黑色组成的是黑白。
在颜色模型RGB中,当R二G二B,那么颜色(R,G,B)则表示为一种黑白的颜色;其中R=G=B的值是灰度值,所以黑白色即灰度颜色。
灰度与彩色之间是可以相互转化的,由灰度化转为彩色的称为伪彩色处理过程;由彩色转化为灰度的叫做灰度化处理过程同。
相应地,数字图像可区分为灰度图像和彩色图像。
通过伪彩色处理和灰度化处理,可以使伪彩色图像与灰度图像之间进行相互转化。
使彩色的R,G,B分量值相等的过程就是灰度化。
灰度的级别只有256级,即灰度图像仅能表现256种颜色(灰度),主要是因为R,G,B的取值围是0~255。
灰度化的处理方法主要有如下3种⑹:
(1)最大值法:
使R,G,B的值等于3个值中最大的一个,即
R=G=B=max(R、G、B)々[i\
利用这种方法可以形成高亮度的灰度图像。
(2)平均值法:
利用R,G,B的值求出平均值,即
R=G=B=(R+G+B)/3
匕如=0.30/?
+0.59G+0.115
(3.⑵R=G=B=%
平均值法可以形成相对比较柔和的灰度图像。
(3)加权平均值法:
依据重要性或其他指标给R,G,B赋上不同的权值,并且使R,
G,B的值加权平均,即
R=G=B=(WrR+WK+Wh)/3⑴⑶
其中wr,Wk„Wb分别为R,G,B的权值。
当Wr,WK,Wb取不相同的值时,加权平均值法就会形成不同的灰度图像。
绿色是人眼最敏感度的颜色,红色次之,对蓝色最低,因此使将得到比较合理的灰度图像。
由理论和实验推导证明,当忙=0.30,二0.59,WfO.11
时,即当
(3.14)(3.15)时,能得到最合适的灰度图像。
3.2背景差分法算法
背景差分法别名背景减法,背景差分法的原理是将当前的图像与背景图像进行差分来得到目标区域,这种方法能很好的识别和提取运动目标,是目前运动分割中最常用的一种方法。
但是需要构建一幅背景图像,这幅背景图像必须不含要检测的目标或其他不需要检测目标,并且应该能不断的更新来分辨当前背景的变化。
背景差分法法是静止背景下运动目标识别和分割的另一种做法。
如不考虑噪音n(x,y,t)的影响,视频帧图像I(x,y,t)可以看作是由背景图像b(x,y,t)和运动目标m(x,y,t)组成:
=b(x,y,f)+m(x,y,/)(3.21)
由式(4-14)可得运动目标m(x,y,t):
m(x,yj)=/(x,y,t)-b(x,y,t)(3.22)
而在实际中,受噪音的影响,式(4-15)不能得到真正的运动目标,而是由运动目标区域和噪音组成的差分图像d(x,y,t),即:
(3.23)
d(x,y,r)=/(x,y,r)-心y,r)+n(x,y,r)
式中T
为一阈值
图3-2
(1)为背景差分法的流程图:
图3-2
(1)
背景差分法实现步骤:
通过这次毕业设计的摸索,可将背景差分法的实现步骤总结如下:
(1)进行图像的预处理:
主要包括对图像进行灰度化以及滤波。
(2)背景建模:
这是背景差法较为重要的第一步。
目前大多的思路都是根据前N帧图像的灰度值进行区间统计从而得到一个具有统计意义的初始背景。
由于背景比较简单则选取图3-1
(2)作为背景图:
图3-2
(2)为背景图片
(3)前景提取:
将图像与背景做差,即可求得背景差图,然后根据一定的方法对改图进行二值化,最终获得运动前景区域,即实现图像分割。
关于图像的二值化,目前主要的难点在于阈值的选取,随着运动物体在整个监控区域的运动,所拍摄的图片具有不同的灰度特性,因此阈值的选取是一个研究热点,目前多采用的方法有最大类间方差法,一维交叉爛阈值法,二维交叉爛阈值法以及其他的自适应阈值选取方法等。
由于本人对此研究不深,故选固定的阈值。
3.3背景差阈值分割法
L二匚
运用阈值法原理进行分割,阈值法是比较简单的图像分割方法,是一种常常运用的并行区域的技术。
阈
值是用运在区分目
标图片和背景图片的灰度门限。
如果要检测的图像只有目标和背景两类,那么只需要选取一个阈值这种方法称为单阈值分割,这种方法是将图像中每个像素中的灰度值与阈值相对比,灰度值大于阈值的算一种,灰度值小于阈值的为另一种。
如果图像中存在多个检测目标或无关目标,那么就选多个阈值将每个目标及背景区分开,这种方法称为多阈值分割阈值,由于本人只有一个目标则采用单阈值分割,图3-3
(1)为分割前后的比对
sit
walk
图3-3
(1)
述和行为识别。
由于人体具有一定的比例关系,例如,手臂在身体的上半部分,脚在身体的下半部分。
可以想象,如果在某个区域白点数(白色像素达标目标)比较多,则说明有肢体出现在该区域。
如果事先能够定义好所有可能的姿态集合,并根据每一个姿态确定其区域组合,即可事先对姿态的判断。
以左脚为例,若通过计算、和区的目标比例(即白点数与该区域的比例)后发现中的目标比例最大,则可判定左脚有拾起动作,角度大概在20~40之间。
为了更好地确定动作的角度,可以把区域划分得更细(该算法首先需要确定人体的标准位置,用红色矩形框标出,计算出矩形框的高H和宽L,根据高宽的比例来判断人体的姿态。
这种方法的缺点在于,在除法运算的角度是粗糙的,进行更详细的动作,如拾取小角度肢,四肢弯曲(如臀部)等不能分割,分辨不够精确。
有极个别的行为长宽比会重合,行为识别结果如图3-1所示
图3-4
(1)卧姿判断
图3-4
(2)坐姿判断
3-4(4)行走判
图3-4(4)跳跃判
图3-4(5)奔跑判断
3.4小结
本章是基于第1章识别出人脸之后进行姿态识别的着重介绍,首先运用背景差分法,排除背景对识别的干扰;然后进行人体目标的提取,再根据外接框的长宽比,以此判断出人体处于何种姿态。
结论
经过这次毕业设计,我摆脱了单纯的理论知识状态,锻炼了我的综合运用专业知识的实际设计,提髙我查阅文献资料的水平,也由毕业论文的设计,这给我写的论文的能力得到提高。
尽管毕业设计过程繁琐,容复杂,但它让我收获更加丰富。
让我对于理解和使用MATLAB程序设计得到了提高和加深。
和老师沟通是也使自己的设计有新的要求和更深刻的了解。
在设计过程中,程序始终困扰着我,因为在这个领域只是刚刚入门,也可以说是只懂一些简单的指令,为了做出满意的毕设,经常求教与老师,老师也很耐心的解决了我的问题,使我的设计指导的问题得以解决。
这让我意识到,不管我们必须学会与他人沟通。
正
是这样的设计让我积累了大量的实践经验,相信脑海里的知识,让我在今后的工作中表现出较高的弹性和学习,更多的理解和沟通能力。
论文从来不知道怎么写,这个毕业设计,这给了我很大的信心顺利完成时间表,让我对专业前景有信心同时还学习了专业知识。
参考文献
[1]智毅.新一代Web应用开发技术AJAX[C]//立峰.第二届和谐人机环境联合学术会议论文集.北京:
清华大学,2007.31-34
[2]王培,冯曼菲.Web2.0开发技术详解[M]・北京:
人民邮电,2006.389-403,495-520.
1.3]GarrettJJ.Ajax:
ANewApproachtoWeb
Applications[EB/0Ll・・adaptivepath・/publications/essays/archives/000385・php,2005-2-18
[4][美」RyanAsleson,NathanielT.Schutta.Ajax基础教程,金灵等译.北京:
人
民邮电,2006.
[5]徐驰.Ajax模式在异步交互Web环境中的应用[J].计算机技术与发展,2006,16(11):
229-233.
[6]国新.基于Ajax的WEB应用技术的研究与实现[D]:
[硕士学位论文].:
西北大学信息科学与技术学院,2006.
[7]相滨,向坚持,王胜春,等.人行为识别与理解研究探讨[J].计算机与现代化.2004(12):
10-15.
[8]王亮,卫明,谭铁牛.人运动的视觉分分析综述[J],计算机学报.2002(25):
19-23.
[9]韩思奇,王蕾.图像分割的阈值法综述[J].系统工程与电子技术,2002(24):
12-17.
[10]朱秀昌,峰,栋编著.数字图像处理与图像通信[M].北京邮电大学出版色.2002:
234-259.
[11]宏林,蔡锐.数字铜线模式识别及工程实践[M].北京人民邮电.2007:
325-373.
[12]黄福珍,苏剑波.人脸检测[M].±海交通大学.2006:
257-369.
[13]学龙.数字图像处理(第2版)[M].电子工业.2011;137-152.
[14]于殿泓.图像检测与处理技术[M].电子科大.2006:
125-141.
[15]王志波,庆财.步态识别综述[J].办公自动化.2012(04):
23-39.
[16]周维柏,蓉.基于轨迹特征分析的行人异常行为识别[J].电脑编辑技巧与维护.2010(12):
35-51.
[17]于海滨.基于头部特征提取的人体检测与跟踪及其应用[D].大学.2007:
1-9.
[18]翔楼,明,邓艳茹•一种人脸对象的区域分割方法[J1.科学技术与工程.2011(12):
21-34.
[19]洪明,德斌,高文.基于肤色模型、神经网络和人脸结构模型的平面旋转人脸检测[J]・计算机学报.2002(11):
15-27.
[20]继涛,王伟,高君林.基于肤色分割和模板匹配的人脸检测技术研究与实现[J].自然科学报.2009(01):
30-45.
[21]朱喜.基于FPGA的图像预处理单元的设计与实现[D].大学.2010:
5-17.
[22]冯柳.基于FPGA的图像处理算法的研究与设计[D].西南交通大学.200&12-21.
[23]梁路宏,艾海舟,徐光欲.人脸检测研究综述[J].计算机学报.2002(25):
5-10.
[24]DaxisJ,BobickA.TheRecognitionofHumanMovementUsingTemporalTemplates[J].IEEETransPAMI,2001,15(3):
257-267.
[25]KaleA,Roy-ChowburyA,ChellappaRFusionofgaitandfaceforhuman•参考资料.
Identification[C]In:
InticonfonAcoustics,Acoustics,speechandProcessingCanada:
Montreal,2004,22-37.
Signal.
temporal
1261AFBobick,JWDavis.Therecognitionofhumanmovementusingtemplates[J],IEEETrans.PatternAnal.&Mach.Intell.,2001,3(21):
257-267.
谢辞
在本文即将结束之际,大学的生活即将结束,在这期间在导师韩霜的悉心指导下,我不仅学到了很多专业技术知识,而且懂得了很多人生道理,这将使我一生受用。
首先,我要衷心地感谢我的导师韩霜。
论文选题、研究思路以及论文的撰写等方面都汇集了印老师大量的心血。
感谢老师们在大学期间对我思想方法的指导,使我专业知识的学习和实践能力都有了很大的提高。
衷心感谢所有在学习期间给予我帮助和支持的师长和朋友,谢谢他们在各方面的帮助,很高兴能和他们一起分享学习和生活的快乐。
深深地感谢父母对我养育之恩和谆谆教诲,虽然现在不在身边,但是他们总是给我鼓励,教我战胜困难,他们的支持给了我战胜困难的勇气。
最后,向所有关心,帮助,理解和爱护过我的老师,同学,家人表示深深地感谢!
感谢我的家人还有我的室友同学以及所有帮助过我的其他老师和朋友们,正是因为你们对我的殷切期望和默默支持,我才能一心一意完成这篇论文,谢谢你们的支持、鼓励。
感谢我的父母,感谢他们这么多年来给我生活和学习上的关爱与支持,没有他们的鼓励与支持,我不可能顺利的完成学业。
附录1部分关键源码及解释
在这部分,将结合具体的源代码具体说明系统的执行流程和逻辑。
%申明数据库的位置input=*dataset*:
%申明前景检测输出图像的位置
output=*forground‘;
output2=1result*;
strl=dir(input);%存储每个动作的文件夹
bk=imreadCbk.png");%读入背景图片
bk=rgb2gray(bk);
%彩色背景转灰度背景
threshold=40;%背景差阈值
radiojump=[]:
radiolie=[];
radiorun二[];
radiosit=[];
radiowalk=[];
forx=3:
length(strl)%循环每个动作文件夹
str2=dir([inputstrl(x).name*\*.png1]):
%存储每个动作文件中的图片信息
mkdir_fun(output,strl(x).name);%在前景输出文件夹中,为每个动作创建文件夹
mkdir_fun(out