模式识别大作业

上传人:仙*** 文档编号:141394036 上传时间:2022-08-24 格式:DOC 页数:22 大小:1.18MB
收藏 版权申诉 举报 下载
模式识别大作业_第1页
第1页 / 共22页
模式识别大作业_第2页
第2页 / 共22页
模式识别大作业_第3页
第3页 / 共22页
资源描述:

《模式识别大作业》由会员分享,可在线阅读,更多相关《模式识别大作业(22页珍藏版)》请在装配图网上搜索。

1、作业1 用身高和/或体重数据进行性别分类(一)基本要求:用FAMALE.TXT和MALE.TXT的数据作为训练样本集,建立Bayes分类器,用测试样本数据对该分类器进行测试。调整特征、分类器等方面的一些因素,考察它们对分类器性能的影响,从而加深对所学内容的理解和感性认识。具体做法:1 应用单个特征进行实验:以(a)身高或者(b)体重数据作为特征,在正态分布假设下利用最大似然法或者贝叶斯估计法估计分布密度参数,建立最小错误率Bayes分类器,写出得到的决策规则,将该分类器应用到测试样本,考察测试错误情况。在分类器设计时可以考察采用不同先验概率(如0.5对0.5, 0.75对0.25, 0.9对0

2、.1等)进行实验,考察对决策规则和错误率的影响。 图1-先验概率0.5:0.5分布曲线 图2-先验概率0.75:0.25分布曲线图3-先验概率0.9:0.1分布曲线 图4不同先验概率的曲线有图可以看出先验概率对决策规则和错误率有很大的影响。程序:bayesflq1.m和bayeszcx.m2 应用两个特征进行实验:同时采用身高和体重数据作为特征,分别假设二者相关或不相关(在正态分布下一定独立),在正态分布假设下估计概率密度,建立最小错误率Bayes分类器,写出得到的决策规则,将该分类器应用到训练/测试样本,考察训练/测试错误情况。比较相关假设和不相关假设下结果的差异。在分类器设计时可以考察采用

3、不同先验概率(如0.5 vs. 0.5, 0.75 vs. 0.25, 0.9 vs. 0.1等)进行实验,考察对决策和错误率的影响。训练样本female来测试图1先验概率0.5 vs. 0.5 图2先验概率0.75 vs. 0.25图3先验概率0.9 vs. 0.1 图4不同先验概率对测试样本1进行试验得图对测试样本2进行试验有图可以看出先验概率对决策规则和错误率有很大的影响。程序bayesflq2.m和bayeszcx2.m3 自行给出一个决策表,采用最小风险的Bayes决策重复上面的某个或全部实验。设以ceshi1单个特征身高进行试验:决策表W1W2W100.7W20.30close a

4、ll;clear all;X=120:0.1:200; %设置采样范围及精度pw1=0.9;pw2=0.1; %设置先验概率sample1=textread(FEMALE.txt) %读入样本samplew1=zeros(1,length(sample1(:,1);u1=mean(sample1(:,1);m1=std(sample1(:,1);y1=normpdf(X,u1,m1); %类条件概率分布figure(1);subplot(2,1,1);plot(X,y1);title(F身高类条件概率分布曲线);sample2=textread(MALE.txt) %读入样本samplew2=

5、zeros(1,length(sample2(:,1);u2=mean(sample2(:,1);m2=std(sample2(:,1);y2=normpdf(X,u2,m2); %类条件概率分布subplot(2,1,2);plot(X,y2);title(M身高类条件概率分布曲线);P1=pw1*y1./(pw1*y1+pw2*y2);P2=pw2*y2./(pw1*y1+pw2*y2);figure(2);subplot(2,1,1);plot(X,P1);title(F身高后验概率分布曲线);subplot(2,1,2);plot(X,P2);title(M身高后验概率分布曲线);P1

6、1=pw1*y1;P22=pw2*y2;figure(3);subplot(3,1,1);plot(X,P11);subplot(3,1,2);plot(X,P22);subplot(3,1,3);plot(X,P11,X,P22);sample=textread(all sample.txt) %读入样本result=bayes(sample1(:,1),sample2(:,1),pw1,pw2);%bayes分类器function result =bayes(sample1(:,1),sample2(:,1),pw1,pw2);error1=0;error2=0;u1=mean(sampl

7、e1(:,1);m1=std(sample1(:,1);y1=normpdf(X,u1,m1); %类条件概率分布u2=mean(sample2(:,1);m2=std(sample2(:,1);y2=normpdf(X,u2,m2); %类条件概率分布P1=pw1*y1./(pw1*y1+pw2*y2);P2=pw2*y2./(pw1*y1+pw2*y2);for i = 1:50 if P1(i)P2(i) result(i)=0; pe(i)=P2(i); else result(i)=1; pe(i)=P1(i); endendfor i=1:50if result(k)=0 erro

8、r1=error1+1; else result(k)=1 error2=error2+1; endendratio = error1+error2/length(sample); %识别率,百分比形式sprintf(正确识别率为%.2f%.,ratio)作业2 用身高/体重数据进行性别分类(二)基本要求:试验直接设计线性分类器的方法,与基于概率密度估计的贝叶斯分离器进行比较。具体做法:同时采用身高和体重数据作为特征,用Fisher线性判别方法求分类器,将该分类器应用到训练和测试样本,考察训练和测试错误情况。将训练样本和求得的决策边界画到图上,同时把以往用Bayes方法求得的分类器也画到图上,

9、比较结果的异同。解答:Clcclear allsample1=textread(FEMALE.txt) %读入样本sample2=textread(MALE.txt) %读入样本length1,width1=size(sample1);length2,width2=size(sample2);One1 = ones(length1, 1);One2 = ones(length2, 1);plot(sample1(:,1), sample1(:,2), r*,sample2(:,1), sample2(:,2), bo)title(Famale和male身高体重聚类图);Y1=sample1(:

10、,1:2);Y2=sample2(:,1:2);m1 = mean(Y1);m2 = mean(Y2);S1 = (Y1 - One1 * m1)*(Y1 - One1 * m1);S2 = (Y2 - One2 * m2)*(Y2 - One2 * m2);sw = S1+S2;ww=inv(sw);w = inv(sw)*(m1 - m2);Y = Y1;Y2;z = Y*w;hold ont = z*w/norm(w)2;plot(t(:,1), t(:,2)for i = 1:length1+length2plot(Y(i,1) t(i,1), Y(i,2) t(i,2), -.)en

11、daxis(120 200 40 100)title(fisher线性变换后);grid作业2图一作业2图二 利用K-L变换进行特征提取的实验一、 基本要求用FAMALE.TXT和MALE.TXT的数据作为本次实验使用的样本集,利用K-L变换对该样本集进行变换,与过去用Fisher线性判别方法或其它方法得到的分类面进行比较,从而加深对所学内容的理解和感性认识。二、 具体做法1. 不考虑类别信息对整个样本集进行K-L变换(即PCA),并将计算出的新特征方向表示在二维平面上,考察投影到特征值最大的方向后男女样本的分布情况并用该主成分进行分类2. 利用类平均向量提取判别信息,选取最好的投影方向,考察

12、投影后样本的分布情况并用该投影方向进行分类。3. 将上述投影和分类情况与以前做的各种分类情况比较,考察各自的特点和相互关系。三、 实验原理K-L变换是一种基于目标统计特性的最佳正交变换。它具有一些优良的性质:即变换后产生的新的分量正交或者不相关;以部分新的分量表示原矢量均方误差最小;变换后的矢量更趋确定,能量更集中。这一方法的目的是寻找任意统计分布的数据集合之主要分量的子集。设n维矢量,其均值矢量,协方差阵,此协方差阵为对称正定阵,则经过正交分解克表示为,其中,为对应特征值的特征向量组成的变换阵,且满足。变换阵为旋转矩阵,再此变换阵下变换为,在新的正交基空间中,相应的协方差阵。通过略去对应于若

13、干较小特征值的特征向量来给y降维然后进行处理。通常情况下特征值幅度差别很大,忽略一些较小的值并不会引起大的误差。1.不考虑类别信息对整个样本集进行K-L变换(即PCA)(1)读入female.txt 和male.txt 两组数据,组成一个样本集。计算样本均值向量和协方差(2)计算协方差阵C的特征值和特征向量U(3)选取特征值最大的特征向量作为投影方向(4)选取阈值进行判断2.利用类平均信息提取判别信息(1)读入female.txt 和male.txt 两组数据,分别计算样本均值向量和协方差,及总均值向量(2)计算类间离散度矩阵Sb ()与类内离散度矩阵Sw()(3)用比较分类性能,选择最佳投影

14、方向(4)选取阈值进行判断四、 实验结果与分析1.不考虑类别信息对整个样本集进行K-L变换(即PCA)U=(0.6269,0.7791)T ,P1=0.5, P2=0.5判错个数错误率采用K-L变换判别方法1414%采用Fisher线性判别方法1212%2.利用类平均信息提取判决信息U=(0.5818,0.8133)T,P1=0.5, P2=0.5判错个数错误率采用K-L变换判别方法1313%采用Fisher线性判别方法1212%不考虑类别信息clc;clear all;FH FW=textread(C:UsersrengangDesktophomeworkFEMALE.txt,%f %f);

15、MH MW=textread(C:UsersrengangDesktophomeworkMALE.txt,%f %f);FA=FH FW;FA=FA;MA=MH MW;MA=MA;for k=1:50 NT(:,k)=FA(:,k);end for k=51:100 NT(:,k)=MA(:,k-50); end X=(sum(NT)/length(NT);%这里NT是一个100*2的矩阵,X为总样本均值。c=cov(NT);u,v=eig(c);%求矩阵c的全部特征值,构成对角阵v,并求c的特征向量构成u的列向量。a,b=max(v);c,d=max(a); U=u(:,d) x=U*X;

16、errorg=0; errorb=0;for k=1:100 TT(:,k)=U*NT(:,k); if kx errorg=errorg + 1; end else if TT(:,k)u(:,2)*Sb*u(:,2)/v(2,2) u=u(:,1);else u=u(:,2);endfor k=1:50 TF(:,k)=u*FA(:,k); TM(:,k)=u*MA(:,k);end w=(sum(TF)+sum(TM)/100;errorg=0;errorb=0;for k=1:50 if TF(:,k)w errorg=errorg + 1; end if TM(:,k)w error

17、b=errorb+1; endend errorgerrorberror=errorg+errorbh=error/100 %留一法在测试集上的运用clcclear all;T1 T2=textread(test2.txt,%f%f%*s);%读取测试集TT=T1 T2;%构造测试集矩阵T=TT;k3 l3=size(T);TG=zeros(2,50);TB=zeros(2,250);for i=1:50 TG(:,i)=T(:,i);%构造矩阵TGendfor j=51:l3 TB(:,j-50)=T(:,j);endm1=2;m2=2;n1=50;n2=250;tempA=zeros(m1

18、,n1-1);count1=0;count2=0;for i=1:n1%在n1个样本中取出一个然后测试 for j=1:(i-1) tempA(:,j)=TG(:,j); end for j=(i+1):n1 tempA(:,j-1)=TG(:,j); end w,y0=fisher(tempA.),TB); yy=(w.)*TG(1,i);TB(2,i); if yyy0%男的,错误记1 count2=count2+1; endendcount1count2error_ratio=(count1+count2)/(n1+n2)%错误率 作业四机器人视觉伺服控制方法及其应用的研究机器人视觉伺服

19、控制方法研究的基本方法:机器人视觉伺服控制方法是一门交叉性、综合性较强的学科,研究内容涉及计算机视觉、图像处理、模式识别和机器人运动学、动力学、控制理论、实时计算等多学科知识【“。考虑机器人手眼系统(Eye-inHand)对静止物体抓取问题,机器人视觉伺服控制算法的基本思想为,首先使机器人末端执行器上摄像机在目标物体抓取位置上获得目标物体图像,称之为目标图像;则当机器人末端执行器在空间未知点对目标物体进行抓取任务时,安装在机器人末端执行器上的摄像机会获得当前位置上的图像,称之为当前图像;则当前图像与目标图像就存在一误差向量,该误差向量可从两幅图像的图像特征减操作中获取,以这个误差向量为机器人视

20、觉伺服控制系统的控制误差,使该误差向量最终为零,则实现了机器人手眼系统在机器人视觉伺服控制算法下的物体抓取任务。如图11所示,表示了机器人视觉伺服控制方法的基本原理,即利用视觉传感器得到的图像作为反馈信息,构造机器人的位姿的闭环控制。2基于图像的机器人视觉伺服控制方法研究内容图像采集、处理和特征提取机器人环境信息经摄像机CCD和图像采集卡采样后,输出数字图像信息,并经量化后得到的数字图像以供视觉伺服控制算法处理。目前,计算机图像采集卡及其图像处理计算机处理系统的性能己基本可胜任机器人视觉伺服实验实时视频处理的要求。如常用图像采集卡有,美国国家仪器公司(NationalInstrumentlnc

21、J推出的(IMAQ)NI PCI1411图像采集卡和LabVIEW等图像处理软硬件系统,可构架工业级视频处理软系统,实现对NTSC、PAL、S-Video等视频格式进行高精实时采样和处理p。英国EPIX公司推出的高速图像采集设备,P1CX系列图像采集卡和XCAP图像处理软件系统,可实时高速采集图像高达100帧秒口”。还有本文实验平台所采用的,由北京微视电子技术有限责任公(MicroViewlnc)推出的MVPCIMiNiSDK型图像采集卡,其实时性要求不是很高但完全满足了本文机器人视觉伺服控制算法实验系统的要求,具体特点将在第二章实验系统中进行详细介绍。图像雅可比矩阵的估计基于图像的视觉伺服控

22、制算法,需要根据所选的图像特征组来构造图像雅可比矩阵,以把目标物体信息从图像特征空间映射到机器人任务空间。图像雅可比矩阵的概念是由Weiss首次提出,当时称为特征敏感矩阵、交互矩阵或B矩阵等。图像雅可比矩阵是描述图像特征的变化和任务空间中机器人末端执行器位姿变化的一个关系矩阵。设r是机器人任务空间坐标系丁中机器人末端执行器位姿矢量,rTSE3。对r求导,P代表机器人末端执行器位姿的变化率;设厂为k维图像特征空间F。的特征向量,则厂为特征向量导数,表示图像特征向量的变化率。图像雅可比矩阵,则表示任务空间7_的导数空间i到图像特征向量空间的导数空间f之间的一个变换矩阵,如式(11)所示,视觉伺服控

23、制器(VisualServoingController)当完成机器人视觉伺服控制系统的建模后,剩下就是控制问题。视觉伺服控制器是机器人视觉伺服控制系统中,以建立在当前图像和目标图像上所选目标图像特征组之间的差值向量e为反馈控制误差的控制系统。视觉伺服控制方法与一般控制系统的控制方法相似,故最常用控制方法为PID控制法,将机器人当成一被控对象,输入为机器人任务空间中末端执行器的位置或速度运动矢量,不考虑其动态特性,则根据视觉反馈误差e可建立如(12)所示控制律。式中“为控制量输入,可在图像特征空间、工作空间或关节空间中表示;世,、K,、K。分别为比例、积分、微分三个系数矩阵。多数情况下,可直接根

24、据误差e,进行坐标变换和轨迹规划后送入机器人控制器,这相当于髟,取单位矩阵,K,、芷。取零的纯比例控制。机器人视觉伺服控制系统的图像采集图像采集卡其他API函数,如视频采集窗口的设定、视频参数设置等接口函数由图像采集和处理流程图210可知,首先,计算机完成图像采集卡的初始化工作,接着对图像采集卡进行软件设置包括视频源、颜色设置、采集窗口的设定、视频参数设置和内存域地址等设定。设定完成后,即可发送采集图像命令,等待采集后回送内存图像数据指针值即可对图像数据进行处理,图像处理完成后即释放控制权,以防止计算机资源的耗尽。最后,根据图像处理结果和视觉伺服控制算法计算机器人反馈控制信息量;或满足条件后停

25、LE图像采集卡的采集操作而结束程序。基于位置的机器人视觉伺服控制算法建模机器人手眼系统一般有Eye-in-HandSystem和Eye-to-Hand System之分,Eye-inHandSystem是指将作为视觉传感器的CCD摄像机安装在机器人末端执行器上,CCD摄像机随着机器人末端执行器位姿运动而运动;而EyetoHandSystem是指将CCD摄像机安装在全局环境中某固定位置或具有某种已知运动规律的运动位置上,在线观察和监视机器人末端执行器及其周围环境中目标物体的位姿运动。由于Eye-in-HandSystem中CCD摄像机视野的灵活性和开阔性一定程度上满足了机器人视觉伺服控制方法研究

26、对视觉反馈控制信息输入敏感性和丰富性要求,因此,以Eyein-HandSystem机器人手眼系统为实验对象的机器人视觉伺服控制算法研究得到了充分重视,如图2-l所示为本文基于EyeinHandSystem模型构架的典型机器人视觉伺服控制系统实验平台。机器人视觉系统一般由CCD摄像机、图像采集卡和计算机组成,其输入图像序列为标准数字视频信号数字视频由连续数字图像帧组成,每帧数字图像为MN维整型数组,任意,行N列的数组点为图像象素点(Pixel)坐标,数组值为对应图像象素点的灰度值,按色彩分辨率不同而采用不同域值进行采样,如16色、256色和16Bit真色彩等域值,若采用256色作为采样域值时,则

27、系统采样时,用0-256之间数值表示图像的灰度等级。由于图像处理算法的局限性,一般计算机视觉系统采用256色域值即可。如图31所示,在图像上定义直角坐标系U,v,每一象素点坐标(“,v)分别表示该象素在图像数组中的列数、行数由于“,v坐标系是基于象素点的离散坐标系统,称为图像象素坐标系。图像象素坐标系并没有用物理单位元表示象素点在图像中的位置,因此建立以物理单位元(毫米:mm)的图像物理坐标系x,Y,以方便摄像机定标的数学建模。设X与“轴、y与v轴平行,D1为x,Y坐标系的原点。设Dl在甜,V坐标系中的坐标为(。,v。),每个象素点在z、Y轴方向上的物理。基于人工势能场的视觉伺服轨迹规划算法的

28、控制结构基于人工势能场的机器人视觉伺服轨迹规划算法控制误差直接定义在图像特征空间中。其主要原因在于基于图像视觉伺服控制算法较基于位置的视觉伺服控制算法有更好的稳定性。则基于人工势能场的机器人视觉伺服轨迹规划算法控制误差e定义为如式(6371所示。式中j(,)是随着时间变化而构造的机器人轨迹上摄像机目标图像特征组值,其值为经人工势能场法的视觉伺服轨迹规划的目标机器人位姿轨迹参考数据点r“)的三次样条插补算法计算而得的图像特征组值。以+为图像雅可比矩阵,的伪逆矩阵估算值,其计算方法已在第四章中进行了讨论。由式(637)可知,作为机器人视觉伺服系统的反馈控制误差e,由于选择以随时间变化,依据人工势能

29、场而构造的机器人规划轨迹上摄像机获得图像特征组值为参考的相对控制误差,在图像空间和机器人结构空间势能场的约束条件下,使得目标物体始终保持在摄像机视野范围内,e的变化也在一个很小范围内,且e定义在图像特征空间中,使得该算法在摄像机建模误差和控制系统噪声干扰等方面具有较好的稳定性。综上所述,假设摄像机定标模型和目标物体3D构件模型已知的条件下,基于人工势能场的机器人视觉伺服轨迹规划算法控制流程,如图6-6所示,基于人工势能场的机器人视觉伺服轨迹规划算法步骤如下:基于人工势能场法的视觉伺服轨迹规划算法实验的反馈控制跟踪误差41)一s+(,)如图610所示,显示了三维构件模型的三个平面的特征标记点重心

30、图像象素误差曲线。(G1,G1小【G2,G2,J、【G3,G3,J分别表示如图6-7所示各平面的特征标记点重心图像象素坐标值。实验曲线显示,基于人工势能场法的视觉伺服轨迹规划算法在图像空间中的反馈控制跟踪误差最大可不超过5个象索点,其曲线轮廓的进化方向趋势显示了本文提出的机器人视觉伺服控制轨迹规划算法的有效性。总结针对机器人视觉伺服控制算法的稳定性问题,本文提山了基于人工势能场法的机器人视觉伺服轨迹规划算法。通过对图像空间和机器人结构空间中的人工势能场约束的定义,加权求解总人工势力和,搜索机器人运动轨迹满足,(r)最大的方向延伸并以基于图像的视觉伺服控制算法进行跟踪控制,有效提高了机器人视觉伺服控制算法的稳定性。文中还对机器人视觉伺服轨迹规划中插补算法和控制结构流程进行了深入地探讨。最后,以实验仿真验证了本文提出基于人工势能场法的机器人视觉伺服轨迹规划算法的正确性和有效性,为提高基于图像的机器人视觉伺服控制算法的稳定性找到一条可行的解决方法。

展开阅读全文
温馨提示:
1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
2: 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
3.本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!