人体行为检测和识别毕业论文解读

上传人:沈*** 文档编号:127360424 上传时间:2022-07-30 格式:DOC 页数:31 大小:1.79MB
收藏 版权申诉 举报 下载
人体行为检测和识别毕业论文解读_第1页
第1页 / 共31页
人体行为检测和识别毕业论文解读_第2页
第2页 / 共31页
人体行为检测和识别毕业论文解读_第3页
第3页 / 共31页
资源描述:

《人体行为检测和识别毕业论文解读》由会员分享,可在线阅读,更多相关《人体行为检测和识别毕业论文解读(31页珍藏版)》请在装配图网上搜索。

1、华侨大学厦门工学院 毕业设计(论文)本科生毕业设计(论文) 题 目: 人体行为检测与识别 姓 名: 学 号: 系 别: 专 业: 年 级: 指导教师: 2015 年 4 月 20 日独创性声明本毕业设计(论文)是我个人在导师指导下完成的。文中引用他人研究成果的部分已在标注中说明;其他同志对本设计(论文)的启发和贡献均已在谢辞中体现;其它内容及成果为本人独立完成。特此声明。论文作者签名: 日期: 关于论文使用授权的说明本人完全了解华侨大学厦门工学院有关保留、使用学位论文的规定,即:学院有权保留送交论文的印刷本、复印件和电子版本,允许论文被查阅和借阅;学院可以公布论文的全部或部分内容,可以采用影印

2、、缩印、数字化或其他复制手段保存论文。保密的论文在解密后应遵守此规定。论文作者签名: 指导教师签名: 日期: 1华侨大学厦门工学院 毕业设计(论文)人体行为检测与识别摘要人体行为检测与识别是当前研究的重点,具有很高的研究价值和广阔的应用前景。主要应用在型人机交互、运动分析、智能监控和虚拟现实也称灵境技术(VR)领域,对于研究人体检测和识别有着重要的意义。因为人的运动的复杂性和对外部环境的多变性,使得人们行为识别和检测具有一些挑战。对人类行为和检测的研究目前处于初级阶段,有待进一步研究和开发。本文基于matlab人体行为识别和检测的研究,本文主要研究的是从图像中判断出目标处于何种行为,例如常见的

3、走、坐、躺、跑、跳等行为的识别。从现有的很多主流研究成果来看,最常见的行为识别系统结构包括几个模块:目标检测、目标跟踪、行为识别。本文首先对图像进行判断是否有人体目标,识别出人体后对图像进行灰度化,在对灰度图像用背景差法与背景图像比对,最后,比对提取出的人体来判断人体处于何种行为。关键词:matlab,肤色识别,行为检测华侨大学厦门工学院 毕业设计(论文) Human behavior detection and recognition Abstract Matlab human behavior recognition and detection of computer vision, in

4、telligent video surveillance, human motion analysis, the nature of the interaction, virtual application prospect and reality of the economic value of the field, so a lot of research a hot topic these problem areas. Because of the complexity and diversity of human movement of the external environment

5、, so that human behavior recognition has some challenges. The study of human behavior in its infancy now, pending further study and discussion.Recognition matlab studied human behavior recognition and detection based on paper studies is judged from the image in which the target behavior, such as a c

6、ommon walk, sit, lie down, running, jumping and other acts. From the many existing mainstream research point of view, the most common gesture recognition system architecture consists of several modules: target detection, target tracking, behavior recognition. Firstly, the images to determine whether

7、 there are human targets identified after the body of the gray-scale image, the gray-scale images using background subtraction and background image comparison, and finally, more than the extracted human body is what determines kind gesture.Keywords: matlab, color identification, behavior detection目

8、录第1章 绪论61.1 研究背景61.2 研究意义71.3 研究内容71.4 论文组织8第2章 基于人脸检测的人体识别92.1人脸特征92.2 基于肤色的人脸检测9第3章 行为识别133.1 灰度化133.2背景差分法算法143.3背景差阈值分割法163.4通过长宽判断人体行为163.4小结19结论20参考文献21谢辞23附录二 文献翻译28人体行为检测和识别第1章 绪论1.1 研究背景 随着社会的发展,人民生活的提高,人们越来越关注安全问题,对视频监控系统的需求也爆发式扩张,如停车场,超市,银行,工厂,矿山等安全有监控设备,但监控系统不会主动实时监控。因为它们通常在相机发生后的异常,但只有在

9、记录进行了观察和分析,以捕获存储的视频图像结果,然后知事实发生。因此迫切需要一种监视系统,它能够在24小时的连续实时监测,并且相机自动分析人类行为识别的有效的分析所捕获的图像数据。此外,当发生异常时,系统能够守护人员准确及时报警,从而避免犯罪和其他异常情况的发生。随着监控系统到位,以帮助人们甚至完成监控任务。可以减少人力和财力的投入,由于就业监视人员进行。另外,如果长时间不运动图像信息记录,保存几下,就失去了意义和视频监控系统的存储资源浪费存储空间。因此,传统的监视系统浪费了大量的人力,并有可能引起报警,性能差的实时监控的泄漏。监控等实时行为分析系统来识别人体,不仅可以替代监控人员的工作的一部

10、分,提高监测系统的自动化水平,同时也提高监视存储的效率,还有一个广泛的应用,并在视频监视系统的潜在经济价值之前。由于人的行为具有自由的伟大程度,因为身体宽松长裙不同程度和它的外貌和从图像捕获设备位置不同距离的表现风格将是一个很大的分歧,这是人的行为分析,找出了一定的难度。但是,人类行为的实时分析,智能监控系统,以确定关键技术及其广阔的前景药,安全性,虚拟现实,军事和潜在的经济价值,国内外研究机构和学者越来越多的关注,并在许多全球领先的刊物和会议专题讨论。美国和欧洲都进行了一些相关的研究项目。 VSAM主要项目,如美国国防部高级研究计划局,成立于1997年(视觉监视和监测),主要是在视频为主的视

11、频场景理解技术的战场和民用研究;IBM和微软等公司越来越多地将基于视觉的手势识别技术集成到其业务。 W4的实时可视化监控系统已经能够实现定位以及人体运动和跟踪能力的人的分割,并能检测一个人是否携带物体的简单动作等等;重大项目导师制欧盟委员会Framework5计划成立于1999年,主要是对人的行为和人机交互的研究,以开发用于公共安全,安全管理系统的工具; DARPA在2000年和资助长期的人类行为识别(识别人类在距离)项目,主要用于国防研究预防恐怖袭击和民间的多模态监测技术;雷丁大学,英国已经推出了理性的项目(稳健的方法进行监测和了解的人在公共场所),ETISE(视频场景理解评估),ISCAP

12、S(拥挤区域治安综合监控),人类的主要研究行为在视觉图像识别和场景的理解;此外还有Pfinder(人发现者)系统,该系统可以执行人民和谅解的行为,以及项目AVITRACK(飞机周围,归类车辆和个人跟踪围裙的活动模型解释和检查)实时跟踪,是共同资助欧盟和奥地利的研究,该项目的重点是视频监控技术的研究。国内机构这方面的研究也有自动化研究所模式识别,微软亚洲研究院,感知,北京大学国家实验室,大学这方面的研究国家实验室有清华大学,浙江大学。虽然起步相对较晚的时间,而且还对关键技术进行深入研究人的视觉分析。人类的行为识别主要用于运动图像序列中含有人体的分析和处理,往往涉及的检测和清除运动目标检测,运动物

13、体的阴影,特征提取和的四个过程识别人的行为的描述和分析的运动。在这里,我们从人的行为识别技术的研究现状,以及人的行为识别技术的热点和难点,讨论四个方面阐述。1.2 研究意义 人体行为检测与识别技术除了在智能监控系统中具有有广泛的应用前景和潜力,在计算机视觉中是一个极具有吸引力及挑战性的问题。人体运动的视觉分析是一个新兴前沿的研究领域,涉及模式识别,图像处理,计算机视觉,人工智能等多门学科。它可以广泛应用于许多领域,如:运动捕捉,人机交互,监控和安全,环境控制和监测,体育及娱乐分析等,特别是在视频监控方面可广泛应用于银行、邮电、教育、交通、公安、监狱、法庭、大型公共设施、公共场所(银行、医院、停

14、车场、商店、等公共场所甚至家庭庭院内)、大型仓库及军事基地等场所,在国防与公共安全领域起着日益重要的作用。综上所述,因此,人体动作的视觉分析具有极大的商业价值与现实意义。1.3 研究内容本文主要对人体行为检测和识别方法进行研究,主要研究内容如下: (1)判断是否为人体在目标提取之前,首先要对输入的图片进行检测。本文通过肤色检测判断目标是否为人体。(2)人体目标提取 如果是人体导入背景图片与背景图片做差,再通过背景差阈值分割法进行提取。(4)行为识别在解决了以上的问题之后,接下来就是要选择一种合适的算法来进行人体姿态识别,这也是本文研究的重点和难点。本文采用一种人体目标的连通区域的长宽比例来对人

15、体行为进行识别。1.4 论文组织论文的结构安排如下: 第一章阐述了人体行为识别技术的研究背景、研究意义以及本文所研究的主要内容等。 第二章运用肤色识别技术判断人和非人的区别第三章 进行图片处理灰度化,在通过背景图片与图片做差,再通过背景差阈值分割法进行提取,再通过连通区域的长宽比来判断何种行为 第2章 基于人脸检测的人体识别 2.1人脸特征 人脸是一个很常见的,非常复杂的区域具有很强的代表性,是人体生物特征最直接的表现,并与其他人的特点相比中包含的脸部的其他生物信息有以下几个特点:(1)是最丰富的面部特征。(2)应用非常方便,无需使用其他辅助设备。(3)人脸特征是最熟悉的人性化特点,很容易被别

16、人接受;(4)人脸包含特征信息可直接用于使用,它不易被仿冒; 在人类的知识里面,人们对人的理解是最丰富的,人脸的结构非常清晰,从脸部和五官的位置之间的关系非常了解对方,人类已经没有什么困难判断一个给定的通过人脸检测或识别个人身份的图像是否具有正面是真的很难。另外,通过观察一个面的外部特征,它可以在很大程度上决定一个人的性别,表情,种族,身份和性格等直到与心理因素的某些内容。但是,自动检测与识别的脸是一个具有挑战性的经典研究,特别是要建立一个实用的系统,可全自动面部识别是非常困难的。主要的困难主要有以下几个方面:(1)面部器官,形状,尺寸,颜色,质地和千变万化的面部表情,是很复杂的,很难形容一个

17、统一的模式;(2)人脸表面经常有一些配套的异物,如眼镜,胡须,耳环等;(3)的复合物的实际应用中,如复杂的背景,光强,脸姿势如此不确定。2.2 基于肤色的人脸检测 人脸非常重要的一个特性是肤色。研究表明:尽管不同种族、不同年龄、不同性别的人肤色看起来也会不相同,不同主要体现在亮度上面,根据亮度提取的色度空间里,不一样的肤色分布是具有聚类性的。在多种彩色空间里选取YCbCr彩色空间进行肤色的提取,是利用了肤色在色度空间里的聚类性。 颜色空间颜色空间是定义、创建和观察颜色的方法。另外还有一些针对某些类型的图像应用通过统计或物理分析,由RGB线性或非线性导出的颜色空间,静态肤色模型目前常用的静态肤色

18、建模方法有三种类型:辨别肤色范围、高斯密度函数的估计和直方图的统计,本文采用辨别肤色范围的方法。规定肤色范围用数学表达式明确规定肤色范围是一种简单的肤色建模方式,假设输入像素的颜色落入RCr=140;170和RCb=80;120限定的矩形区域,就认为是属于皮肤颜色像素。在不同的亮度分量y上的矩形区域(RCr,RCb)不同。这种简单的判断方式运行起来即快速又高效,特别是在实时系统中更具有可用的价值。由统计表明不同种族的人类的皮肤颜色区别主要受亮度的影响,而受颜色的影响比较小,所以直接考虑YCbCr空间的CbCr分量,映射为CbCr空间,在CbCr空间下,受亮度变化的影响少,且是两维独立分布。通过

19、实践,选取大量皮肤颜色样本进行统计,发现皮肤颜色在CbCr空间的分布呈现出良好的聚类特性。统计分布满足:80Cb120 并且满足:140Cr170 不同人类的皮肤虽然相差很大,但在色度上的差异远远小于亮度上的差异,其实不同人的皮肤颜色在色彩上比较接近,但在亮度上的差异很大,在二维色度平面上,皮肤颜色的区域比较集中,可以用高斯分布描述。其中每个像素的灰度对应该点与皮肤颜色的相似度,相似度的计算公式如下: (2.21) 其中m为均值,m=E(x),C为协方差矩阵, , (2.22) 肤色分布的2D高斯模型G(m,V2)也可表示为 (2.23) 其中,为相应的平均值,为协方差矩阵。根据肤色识别原理识

20、别人体肤色,再根据裸露皮肤最大的区域为人脸如图2-2所示:图2-2(1)卧姿的人脸定位图2-2(2)跳跃的人脸定位图2-2(3)行走时的人脸定位图2-2(4)坐姿的人脸定位图2-2(5)奔跑时的人脸定位第3章 行为识别日常生活人的基本姿态有站、坐、躺,组成一个姿态集合A:A=跳,走,跑,坐,躺 (3.1)判断人体行为提取人体区域彩色图像灰度化输出处于何种行为当前检测的姿态,但是只有当图片中有人体时才能被检测出来,所以当图片中没有人体时则认为图片中的信息是非人体。图3-1 识别流程图3.1 灰度化颜色可分为彩色和黑白。颜色中不包含任何的色彩成分,仅由白色和黑色组成的是黑白。在颜色模型RGB中,当

21、R=G=B,那么颜色(R,G,B)则表示为一种黑白的颜色;其中R=G=B的值是灰度值,所以黑白色即灰度颜色。灰度与彩色之间是可以相互转化的,由灰度化转为彩色的称为伪彩色处理过程;由彩色转化为灰度的叫做灰度化处理过程。相应地,数字图像可区分为灰度图像和彩色图像。通过伪彩色处理和灰度化处理,可以使伪彩色图像与灰度图像之间进行相互转化。使彩色的R,G,B分量值相等的过程就是灰度化。灰度的级别只有256级,即灰度图像仅能表现256种颜色(灰度),主要是因为R,G,B的取值范围是0 255。灰度化的处理方法主要有如下3种6:(1)最大值法:使R,G,B的值等于3个值中最大的一个,即 (3.11) 利用这

22、种方法可以形成高亮度的灰度图像。(2)平均值法:利用R,G,B的值求出平均值,即 (3.12)平均值法可以形成相对比较柔和的灰度图像。(3)加权平均值法:依据重要性或其他指标给R,G,B赋上不同的权值,并且使R,G,B的值加权平均,即 (3.13)其中Wr,Wg,Wb分别为R,G,B的权值。当Wr,Wg,Wb取不相同的值时,加权平均值法就会形成不同的灰度图像。绿色是人眼最敏感度的颜色,红色次之,对蓝色最低,因此使将得到比较合理的灰度图像。由理论和实验推导证明,当Wr = 0.30,Wg =0.59,Wb=0.11时,即当 (3.14) (3.15)时,能得到最合适的灰度图像。3.2背景差分法算

23、法 背景差分法别名背景减法,背景差分法的原理是将当前的图像与背景图像进行差分来得到目标区域,这种方法能很好的识别和提取运动目标,是目前运动分割中最常用的一种方法。但是需要构建一幅背景图像,这幅背景图像必须不含要检测的目标或其他不需要检测目标,并且应该能不断的更新来分辨当前背景的变化。背景差分法法是静止背景下运动目标识别和分割的另一种做法。如不考虑噪音n(x,y,t)的影响,视频帧图像I(x,y,t)可以看作是由背景图像b(x,y,t)和运动目标m(x,y,t)组成: (3.21)由式(4-14)可得运动目标m(x,y,t): (3.22)而在实际中,受噪音的影响,式(4-15)不能得到真正的运

24、动目标,而是由运动目标区域和噪音组成的差分图像d(x,y,t),即: (3.23)得到运动目标需要依据某一判断原则进一步处理,最常用的方法为阈值分割的方法: (3.24)式中T为一阈值图3-2(1)为背景差分法的流程图: 图3-2(1)背景差分法实现步骤:通过这次毕业设计的摸索,可将背景差分法的实现步骤总结如下:(1)进行图像的预处理:主要包括对图像进行灰度化以及滤波。(2)背景建模:这是背景差法较为重要的第一步。目前大多的思路都是根据前N帧图像的灰度值进行区间统计从而得到一个具有统计意义的初始背景。由于背景比较简单则选取图3-1(2)作为背景图: 图3-2(2)为背景图片(3)前景提取:将图

25、像与背景做差,即可求得背景差图,然后根据一定的方法对改图进行二值化,最终获得运动前景区域,即实现图像分割。关于图像的二值化,目前主要的难点在于阈值的选取,随着运动物体在整个监控区域内的运动,所拍摄的图片具有不同的灰度特性,因此阈值的选取是一个研究热点,目前多采用的方法有最大类间方差法,一维交叉熵阈值法,二维交叉熵阈值法以及其他的自适应阈值选取方法等。由于本人对此研究不深,故选固定的阈值。3.3背景差阈值分割法 运用阈值法原理进行分割,阈值法是比较简单的图像分割方法,是一种常常运用的并行区域的技术。阈值是用运在区分目标图片和背景图片的灰度门限。如果要检测的图像只有目标和背景两类,那么只需要选取一

26、个阈值这种方法称为单阈值分割,这种方法是将图像中每个像素中的灰度值与阈值相对比,灰度值大于阈值的算一种,灰度值小于阈值的为另一种。如果图像中存在多个检测目标或无关目标,那么就选多个阈值将每个目标及背景区分开,这种方法称为多阈值分割阈值,由于本人只有一个目标则采用单阈值分割,图3-3(1)为分割前后的比对 sitwalk图3-3(1)3.4通过长宽判断人体行为 行为分析最基本的两个问题:行为描述和行为识别。 由于人体具有一定的比例关系,例如,手臂在身体的上半部分,脚在身体的下半部分。可以想象,如果在某个区域内白点数(白色像素达标目标)比较多,则说明有肢体出现在该区域。如果事先能够定义好所有可能的

27、姿态集合,并根据每一个姿态确定其区域组合,即可事先对姿态的判断。以左脚为例,若通过计算、和区的目标比例(即白点数与该区域的比例)后发现中的目标比例最大,则可判定左脚有拾起动作,角度大概在2040之间。为了更好地确定动作的角度,可以把区域划分得更细(该算法首先需要确定人体的标准位置,用红色矩形框标出,计算出矩形框的高H和宽L,根据高宽的比例来判断人体的姿态。 这种方法的缺点在于,在除法运算的角度是粗糙的,进行更详细的动作,如拾取小角度肢,四肢弯曲(如臀部)等不能分割,分辨不够精确。有极个别的行为长宽比会重合,行为识别结果如图3-1所示图3-4(1)卧姿判断 图3-4(2)坐姿判断 图3-4(4)

28、行走判断 图3-4(4)跳跃判断图3-4(5)奔跑判断3.4小结 本章是基于第1章识别出人脸之后进行姿态识别的着重介绍,首先运用背景差分法,排除背景对识别的干扰;然后进行人体目标的提取,再根据外接框的长宽比,以此判断出人体处于何种姿态。 结论经过这次毕业设计,我摆脱了单纯的理论知识状态,锻炼了我的综合运用专业知识的实际设计,提高我查阅文献资料的水平,也由毕业论文的设计,这给我写的论文的能力得到提高。尽管毕业设计过程繁琐,内容复杂,但它让我收获更加丰富。让我对于理解和使用MATLAB程序设计得到了提高和加深。和老师沟通是也使自己的设计有新的要求和更深刻的了解。在设计过程中,程序始终困扰着我,因为

29、在这个领域只是刚刚入门,也可以说是只懂一些简单的指令,为了做出满意的毕设,经常求教与老师,老师也很耐心的解决了我的问题,使我的设计指导的问题得以解决。这让我意识到,不管我们必须学会与他人沟通。正是这样的设计让我积累了大量的实践经验,相信脑海里的知识,让我在今后的工作中表现出较高的弹性和学习,更多的理解和沟通能力。论文从来不知道怎么写,这个毕业设计,这给了我很大的信心顺利完成时间表,让我对专业前景有信心同时还学习了专业知识。 参考文献1 李智毅新一代Web应用开发技术AJAXC/孙立峰第二届和谐人机环境联合学术会议论文集. 北京:清华大学出版社,200731-342 王培,冯曼菲Web 2.0开

30、发技术详解M北京:人民邮电出版社,2006389-403,495-520.3 Garrett J J. Ajax:A New Approach to Web ApplicationsEB/OL. 4 美Ryan Asleson , Nathaniel T.SchuttaAjax 基础教程,金灵等译北京:人民邮电出版社,20065 徐驰. Ajax模式在异步交互Web环境中的应用J. 计算机技术与发展,2006,16(11):229-233.6 姚国新基于Ajax的WEB应用技术的研究与实现D:硕士学位论文陕西:西北大学信息科学与技术学院,20067 刘相滨,向坚持,王胜春,等.人行为识别与理解

31、研究探讨J.计算机与现代化.2004(12):10-15.8 王亮,胡卫明,谭铁牛.人运动的视觉分分析综述J,计算机学报.2002(25):19-23.9 韩思奇,王蕾.图像分割的阈值法综述J.系统工程与电子技术,2002(24):12-17.10 朱秀昌,刘峰,胡栋编著.数字图像处理与图像通信M.北京邮电大学出版色.2002:234-259.11 张宏林,蔡锐.数字铜线模式识别及工程实践M.北京人民邮电出版社.2007:325-373.12 黄福珍,苏剑波.人脸检测M.上海交通大学出版社.2006:257-369.13 胡学龙.数字图像处理(第2版)M.电子工业出版社.2011;137-15

32、2. 14 于殿泓.图像检测与处理技术M.西安电子科大.2006:125-141. 15 王志波,陈庆财.步态识别综述J.办公自动化.2012(04):23-39.16 周维柏,李蓉.基于轨迹特征分析的行人异常行为识别J.电脑编辑技巧与维护.2010(12):35-51.17 于海滨.基于头部特征提取的人体检测与跟踪及其应用D.浙江大学.2007:1-9.18 刘翔楼,张明,邓艳茹.一种人脸对象的区域分割方法J.科学技术与工程.2011(12):21-34.19 张洪明,赵德斌,高文.基于肤色模型、神经网络和人脸结构模型的平面旋转人脸检测J.计算机学报.2002(11):15-27.20 张继

33、涛,王伟,高君林.基于肤色分割和模板匹配的人脸检测技术研究与实现J.自然科学报.2009(01):30-45.21 朱喜.基于FPGA的图像预处理单元的设计与实现D.湖南大学.2010:5-17.22 冯柳.基于FPGA的图像处理算法的研究与设计D.西南交通大学.2008:12-21.23 梁路宏,艾海舟,徐光欲.人脸检测研究综述J.计算机学报.2002(25):5-10.24 Daxis J,Bobick A.The Recognition of Human Movement Using Temporal TemplatesJ.IEEE Trans PAMI,2001,15(3):257-2

34、67.25 Kale A, Roy-Chowbury A, Chellappa R Fusion of gait and face for human IdentificationC In: Intl confon Acoustics, Acoustics, speech and Signal. Processing Canada: Montreal, 2004,22-37.26 A F Bobick,J W Davis.The recognition of human movement using temporal templatesJ,IEEETrans.Pattern Anal.& Ma

35、ch.Intell.,2001,3(21):257-267.谢辞在本文即将结束之际,大学的生活即将结束,在这期间在导师韩霜的悉心指导下,我不仅学到了很多专业技术知识,而且懂得了很多人生道理,这将使我一生受用。首先,我要衷心地感谢我的导师韩霜。论文选题、研究思路以及论文的 撰写等方面都汇集了印老师大量的心血。感谢老师们在大学期间对我思想方法的指导,使我专业知识的学习和实践能力都有了很大的提高。衷心感谢所有在学习期间给予我帮助和支持的师长和朋友,谢谢他们在各方面的帮助,很高兴能和他们一起分享学习和生活的快乐。深深地感谢父母对我养育之恩和谆谆教诲,虽然现在不在身边,但是他们总是给我鼓励,教我战胜困难

36、,他们的支持给了我战胜困难的勇气。最后,向所有关心,帮助,理解和爱护过我的老师,同学,家人表示深深地感谢! 感谢我的家人还有我的室友同学以及所有帮助过我的其他老师和朋友们,正是因为你们对我的殷切期望和默默支持,我才能一心一意完成这篇论文,谢谢你们的支持、鼓励。 感谢我的父母,感谢他们这么多年来给我生活和学习上的关爱与支持,没有 他们的鼓励与支持,我不可能顺利的完成学业。附录1 部分关键源码及解释在这部分,将结合具体的源代码具体说明系统的执行流程和逻辑。%申明数据库的位置input = dataset;%申明前景检测输出图像的位置output = forground;output2 = resu

37、lt; str1 = dir(input); %存储每个动作的文件夹bk = imread(bk.png);%读入背景图片bk = rgb2gray(bk); % 彩色背景转灰度背景threshold = 40; %背景差阈值 radio_jump = ;radio_lie = ;radio_run = ;radio_sit = ;radio_walk = ; for x = 3:length(str1) %循环每个动作文件夹 x str2 = dir(input str1(x).name *.png); %存储每个动作文件中的图片信息 mkdir_fun(output, str1(x).na

38、me); % 在前景输出文件夹中,为每个动作创建文件夹 mkdir_fun(output2, str1(x).name); for y = 1:length(str2) % 循环每个图片 y %读入图片 im = imread(input str1(x).name str2(y).name); im_gray = rgb2gray(im);%彩色图转灰度图 diff = abs(double(im_gray) - double(bk); fg = diffthreshold; % 背景差阈值分割法,求前景 fg = medfilt2(fg); %中值滤波去噪点 bb = regionprops

39、(fg,BoundingBox); area = regionprops(fg,Area); %寻找最大连通域的外接框的坐标 max_index = 1; max_area = 0; for z = 1:size(area,1) if area(z).Area = max_area; max_area = area(z).Area; max_index = z; end end %x y x_with y_with %计算外接框的长宽比 radio = bb(max_index).BoundingBox(3)/bb(max_index).BoundingBox(4); if x = 3 rad

40、io_jump = radio_jump;radio; end if x = 4 radio_lie = radio_lie;radio; end if x = 5 radio_run = radio_run;radio; end if x = 6 radio_sit = radio_sit;radio; end if x = 7 radio_walk = radio_walk;radio; end imshow(im) % 判断外接框内是否有肤色, 如果有肤色, 才是人, 才进入行为判断 c = floor(bb(max_index).BoundingBox(1) ; %x r = floo

41、r(bb(max_index).BoundingBox(2); %y c_width = bb(max_index).BoundingBox(3); %x_with r_width = bb(max_index).BoundingBox(4); % y_with rectangle(Position, c r c_width r_width) sum_im = im(r:r+r_width,c:c+c_width,:); %外接框图像 skin = skin_fun(sum_im); %寻找是否有肤色 skin = medfilt2(skin); bb_skin = regionprops(s

42、kin,BoundingBox); %如果有肤色,切割出连通域 min_index = 1; min_height = 720; for z = 1:size(bb_skin,1) if bb_skin(z).BoundingBox(2) =1 %如果找到肤色 rectangle(Position, c r c_width r_width) rectangle(Position, c2 r2 c_width2 r_width2) text(c2+c_width2+5,r+r_width2+5,face) ; %jump if radio= 1 text(c-5,r-5,lie) ; end %

43、run if radio 0.54 & radio=0.6 & radio 1 text(c-5,r-5,sit) ; end %walk if radio0.5 text(c-5,r-5,walk) ; end else %如果没找到肤色 text(c-5,r-5,No Human) ; end saveas(gcf,output2 str1(x).name str2(y).name); pause(0.005) imwrite(fg,output str1(x).name str2(y).name); endend % mean(radio_jump) 0.468% max(radio_j

44、ump) 0.6440% min(radio_jump) 0.3299 % mean(radio_lie) 4.4732% max(radio_lie) 6% min(radio_lie) 1.4 % mean(radio_run) 0.57% max(radio_run) 0.7% min(radio_run) 0.34 % mean(radio_sit) 0.6% max(radio_sit) 0.7% min(radio_sit) 0.59 % mean(radio_walk) 0.4% max(radio_walk) 0.54% min(radio_walk) 0.27 plot(ra

45、dio_jump,b);hold on;plot(radio_lie,g);hold on;plot(radio_run,k);hold on;plot(radio_sit,y);hold on;plot(radio_walk,r);附录二 文献翻译Complex Ridgelets for Image DenoisingWavelet transforms have been successfully used in many scientific fields such as image compression, image denoising, signal processing, co

46、mputer graphics,and pattern recognition, to name only a few.Donoho and his coworkers pioneered a wavelet denoising scheme by using soft thresholding and hard thresholding. This approach appears to be a good choice for a number of applications. This is because a wavelet transform can compact the ener

47、gy of the image to only a small number of large coefficients and the majority of the wavelet coeficients are very small so that they can be set to zero. The thresholding of the wavelet coeficients can be done at only the detail wavelet decomposition subbands. We keep a few low frequency wavelet subb

48、ands untouched so that they are not thresholded. It is well known that Donohos method offers the advantages of smoothness and adaptation. However, as Coifmanand Donoho pointed out, this algorithm exhibits visual artifacts: Gibbs phenomena in the neighbourhood of discontinuities. Therefore, they prop

49、ose in a translation invariant (TI) denoising scheme to suppress such artifacts by averaging over the denoised signals of all circular shifts. The experimental results in confirm that single TI wavelet denoising performs better than the non-TI case. Bui and Chen extended this TI scheme to the multiw

50、avelet case and they found that TI multiwavelet denoising gave better results than TI single wavelet denoising. Cai and Silverman proposed a thresholding scheme by taking the neighbour coeficients into account Their experimental results showed apparent advantages over the traditional term-by-term wa

51、velet denoising.Chen and Bui extended this neighbouring wavelet thresholding idea to the multiwavelet case. They claimed that neighbour multiwavelet denoising outperforms neighbour single wavelet denoising for some standard test signals and real-life images.Chen et al. proposed an image denoising sc

52、heme by considering a square neighbourhood in the wavelet domain. Chen et al. also tried to customize the wavelet _lter and the threshold for image denoising. Experimental results show that these two methods produce better denoising results. The ridgelet transform was developed over several years to break the limitations of the wavelet transform. The 2D wavelet

展开阅读全文
温馨提示:
1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
2: 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
3.本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!