基于局部纹理ASM模型的人脸表情识别

上传人:仙*** 文档编号:30370059 上传时间:2021-10-10 格式:DOC 页数:18 大小:49.50KB
收藏 版权申诉 举报 下载
基于局部纹理ASM模型的人脸表情识别_第1页
第1页 / 共18页
基于局部纹理ASM模型的人脸表情识别_第2页
第2页 / 共18页
基于局部纹理ASM模型的人脸表情识别_第3页
第3页 / 共18页
资源描述:

《基于局部纹理ASM模型的人脸表情识别》由会员分享,可在线阅读,更多相关《基于局部纹理ASM模型的人脸表情识别(18页珍藏版)》请在装配图网上搜索。

1、基于局部纹理ASM模型的人脸表情识别第6卷第3期2011年6月智能系统CAMTransactionsonIntelligentSystemsVoL6No.3Jun.201ldoi:10.3969/j.issn.1673-4785.2011.03.007基于局部纹理ASM模型的人脸表情识别彭程,刘帅师,;0-)11,田彦涛(1.吉林大学通信工程学院,吉林长春130025;2.吉林大学工程仿生教育部重点实验室,吉林长春130025)摘要:针对主动形状模型(ASM)迭代过程容易陷入局部最优解的不足,提出了一种基于局部纹理模型的改进ASM算法,即EWASM.在局部纹理模型构建中,以每个特征点的中垂线方

2、向搜索其邻域信息以确定最佳匹配位置,对衡量匹配程度的马氏距离加以推广,进而得到改进的扩展加权局部纹理模型,它由中心局部纹理模型,前局部纹理模型和后局部纹理模型共3个子模型加权组成,并对加权参数进行实验优化,使各个特征点之间的联系更加紧密,模型的鲁棒性更好.通过表情识别实验对提出的EWASM算法和传统ASM算法进行对比,选用RBF神经网络分类器进行表情分类,实验结果表明EWASM算法收敛速度更快,识别率也得以提高,并解决了局部最小问题,能更有效地表征表情.关键词:人脸表情识别;主动形状模型;局部纹理模型;RBF神经网络分类器中图分类号:TP391文献标识码:A文章编号:1673-4785(201

3、1)03-023108AnactiveshapemodelforfacialexpressionrecognitionbasedonalocaltexturemodelPENGCheng,LIUShuaishi,WANChuan,TIANYantao,.(1.SchoolofCommunicationEngineering,JilinUniversity,Changchun130025,China;2.KeyLaboratoryofBionicEngineering(Ji一1inUniversity),MinistryofEducation,Changchun130025,China)Abst

4、ract:Animprovedactiveshapemodel(ASM)calledEWASM(expandedweightedASM)basedonalocaltex-turemodelwasproposedbecauseEWASMovercomesthedisadvantagethattheactiveshapemodeliseasytoinvolveinlocaloptimalsolutionintheiterativeprocess.Inthelocaltexturemodel,searchingadjacentinformationofeachlandmarkalongitsperp

5、endicularbisectormadethematchpositionbest.ItimprovedandpromotedMahalanobisdistancewhichmeasuredthematchingdegree.Thenthelocaltexturemodelwasextendedtoincludethecenterlocaltexturemodel,forwardlocaltexturemodel,andbackwardlocaltexturemode1.Afterthat,theweightedparameterswereoptimizedexperimentally.Thu

6、seachlandmarkismorecloselyrelatedandthelocaltexturemodelismorerobust.FinallyfacialexpressionrecognitionexperimentswereconductedcomparingEWASMwithclassicalASM,andaRBFneuralnetworkwasusedasaclassificationintheexpressionrecognition.ExperimentsshowthattheEWASMalgorithmsolvedthelocalminimumproblemandachi

7、evedabetterconvergencerateandrecognitioneffect.Keywords:facialexpressionrecognition;activeshapemodel;localtexturemodel;RBFneuralnetworkclassifier人脸表情不仅在人与人的交流中发挥着重要的作用,而且是实现人机交互,使计算机能够更准确地理解人的表情和意图的一个重要研究内容.一个完整的人脸表隋识别系统由人脸检测,特征提取和表情分类3个部分组成.其中特征提取在整个表情识别过程收稿日期:20101126.基金项目:吉林省科技发展计划重点资助项目(20071152

8、);吉林大学985工程工程仿生科技创新平台项目资助;吉林大学研究生创新基金资助项目(20101027).通信作者:田彦涛.Email:tianyt.中是一个关键环节.目前最受关注的特征提取方法是Cootes等人于1995年提出的主动形状模型(activeshapemodel,ASM)方法J,其模型允许一定程度上形状的变化,可以更好地定位物体的内外轮廓,又不会脱离目标对象的本质特征;但该模型对初始形状的定位非常敏感,本质上是一个求局部最优的过程,有时不能发现全局最优解,存在着一定的局限性,因此吸引了国内外广大学者对其进行研究.1998年,Cootes等人进一步提出了主动表观模智能系统第6卷型(a

9、ctiveappearancemodel,AAM).AAM建立了关于人脸的形状与纹理的组合模型,因此定位更精确,但运算速度与ASM相比较慢.M.Rogers和J.Grahaml4用一种具有鲁棒性的最小二乘技术来最小化全局统计模型和未知形状之间的差值,这一改进使得全局统计模型表示的形状不容易受特征点中的噪声和野值的影响,但计算工作量较大.VanGinnenken等人提出一种改进局部纹理模型方法,用局部无序图像计算得到的局部纹理特征代替传统ASM的法线模型,用K近邻分类器对特征点进行匹配,但在特征属性较多时K近邻分类器的分类精度大大降低.Fanlquie等人运用ASM方法检测嘴唇的轮廓,使用5条曲

10、线代表嘴唇的轮廓,进而降低了参数个数,将彩色信息加入ASM,获得了较好的匹配效果.G.Hamarneh等人将ASM的特征扩展到时间空问的形状,并且设计出一种新的算法,使得时间空间形状模型能更好地与图像序列中的目标轮廓匹配.李皓等人提出了多模板ASM定位算法,先利用全局模板定位总体,再利用局部模板定位局部,从而改善ASM纹理平滑区域特征点定位不精确的问题.Chen等人l1.把局部变量引入到ASM中,进行图像变形检测和形状修正,从而有效避免了图像的变形,提高了匹配准确性.以上这些改进方法只保留传统ASM的基本思想,具体操作过程与传统ASM方法差别较大,在改进ASM的同时也增加了复杂性.而本文针对A

11、SM易陷入局部最优的缺点,提出了局部纹理模型的改进算法(expandedweightedASM,EWASM),以每个特征点的中垂线方向搜索其邻域信息以确定最佳匹配位置,根据每个特征点的邻域信息,对衡量匹配程度的马氏距离准则函数加权扩展,由3个子模型共同描述局部纹理模型的特性,更准确定位目标图像,通过特征点间的制约解决局部最小问题,并且通过实验比较和分析,验证了改进算法的有效性.1EWASM算法1.1主动形状模型主动形状模型是基于统计学习模型的特征点提取方法,其首先提取面部形状的特征点集合,形成训练集,通过统计分析构造样本的全局形状模型.然后利用局部纹理模型在目标图像中搜索特征点的最佳匹配位置,

12、同时根据匹配结果调整全局模型的相关参数,从而使模型与目标图像的实际轮廓逐步逼近,最终准确定位目标.考虑全局形状模型:=+P6.式中:是一个形状;x表示平均形状;P是主成分特征向量构成的变换矩阵;为权值向量,使用主成分分析法控制前t个特征值的系数,不同的对应不同的形状,并且对6加以限定:一A<b</A,i=1,2,t,其中A(AA+l,A0,=1,2,2凡)是协方差矩阵的特征值.给定局部纹理模型为:1N=G,i=IfPsc=(G一)(G).式中:G是对第i幅训练图像的第个标定点的灰度信息归一化后的纹理向量,即1G=广,II=1=g,2一g,1,g,2+1一g,2,其中第i个特征点的灰

13、度信息是以该特征点为中心沿法线方向上下各取k个点的灰度来表示,即g,=g,gg强+】;是平均纹理;s.是协方差矩阵在目标图像搜索确定标定点的最佳匹配位置时,希望准确定位每个特征点,因此需搜索特征点附近的邻域信息,最直接的方法就是分析邻域的灰度信息,以确定最佳匹配位置.匹配程度用式(1)的马氏距离来描述.d(G)=(G一)(sc,)(G一G).(1)式中:G;提由目标搜索图像在点附近采样得到的归一化纹理向量;d(G)最小值对应的点即是最佳候选点.1.2EWASM算法虽然ASM方法的有效性己被广泛证实,但是传统的ASM仍存在诸多不足.1)ASM的鲁棒性不够理想,迭代过程的收敛性非常依赖于初始形状的

14、定位,初始位置的改变往往影响迭代次数,甚至导致无法达到收敛;2)ASM本质上是一个求局部最优的过程,有时不能发现全局最优解,容易陷入局部最小.针对这些问题,本文提出了EWASM算法.如图1(a),EWASM算法中,以点P为中心到其相邻特征点(P,P)连线的垂线F方向上下各取相同像素,得到特征点P的灰度信息,点P,与点P的灰度信息求取同点P对以上3个特征点分别建立局部纹理模型J,并命名为中心局部纹理模型,前局第3期彭程,等:基于局部纹理ASM模型的人脸表情识别?233?部纹理模型和后局部纹理模型,这3个子模型的构建过程一致,差别只在于采样点的位置不同.根据初始定点的位置,前局部纹理模型的特征点在

15、中心局部纹理模型的特征点的前面,同理,后局部纹理模型的特征点在中心局部纹理模型的后面.采用相同的方法对训练集中每幅图像的特征点进行上述处理,最终可以得到针对某个特征点P相对应的3个平均向量和3个协方差矩阵,分别记为,:和,.P(a)EWASM算法(b)传统ASM算法图1EWASM算法与传统ASM算法中灰度信息求取对比Fig.1GrayinformationcomparisonbetweenEWASMandclassicalASM把3个子模型的局部纹理模型根据式(1)的匹配准则进行加权求和,进而匹配准则函数可扩展为d(zm,z:,)=0(一zrn)().(,rn一,m)+b(z:一-lb)().

16、(z:一-fb)+c(一,:)()(一z;).(2)式中:,是目标搜索图像对应特征点P的归一化后的中心局部纹理向量,前局部纹理向量和后局部纹理向量,同样求取d(,z,)的最小值就是点P的最佳匹配位置;a,b,C是对应的加权参数,分别为3个局部纹理子模型的权重,需满足a+b+c=1和a,b,c0.文献13构建的加权模型,其参数人为设定,没有依据.而本文可以通过实验优化调整,从而确定加权参数的满意值,因此更为精确.比较式(1)和式(2)可知,EWASM算法的匹配准则是传统ASM算法的匹配准则的扩展,即式(1)是式(2)的一个特例,并且式(2)包含了3个子模型的纹理信息,特征信息更广.由此可见,EW

17、ASM算法的优点如下.1)充分利用了面部特征区域的纹理信息来构造纹理向量,提供了更可靠的依据来确定目标图像.而传统ASM方法如图1(b),特征点P的灰度信息是以点P的法线F方向上下各取相同像素获得,与相邻特征点P.,P的相关信息无关,因此传统方法没有充分利用纹理信息.2)匹配准则得到了扩展,局部纹理模型通过3个子模型的加权求和,使各个特征点的联系更为紧密,互相控制和制约,若一个特征点发生严重偏离,其相邻的特征点可以把它拉回至最佳位置,这样也解决了模型容易陷入局部最优的问题.3)充分利用给定点邻域内其他特征点的信息以及各特征点之问的联系,保证定点的准确性,鲁棒性更好.2实验结果与分析实验使用国际

18、标准的专门用于表情识别研究的数据库JAFFE(Japanesefemalefacialexpression).EWASM与传统ASM特征点定位实验中,训练样本140幅,测试样本70幅.由于在表情识别中,鼻子和面部轮廓对表情的影响不大,因此实验中只标定眉毛,眼睛和嘴巴共40个特征点,相对其他ASM研究算法,EWASM方法定点较少,减少了计算量,提高了收敛速度.表情分类实验中选出生气,厌恶,恐惧,高兴,中性,悲伤,惊讶7种手动定点的140幅表情图像样本作为训练样本,其中各种表情的样本数目均为20幅.测试样本为自动定点的65幅表情图像,各种表情的样本数目依次为:10幅,10幅,8幅,9幅,10幅,8

19、幅,10幅.由于脸部特征向量与脸部表情之间的关系是一种非线性映射关系,而利用线性分类器不能准确地分类表情;因此选取了在理论上可以逼近任何非线性函数的神经网络分类器,其具有收敛速度快,所需参数少,局部最佳逼近等优点.其中选取RBF神经网络分类器进行表情分类,高斯函数作为基函数,输入层的节点数为8O,与输入特征向量的维数相等,输出层的节点数选定为7,即类别数.2.1加权参数选择实验EWASM算法的加权参数a,b,C作为3个子模型的权值决定每个子模型,所占的比重,即每个特征点的分量.由于中心局部纹理模型作为特征点的主要模型,在3个子模型中所占比重应最大,而前局部纹理模型和后局部纹理模型比重几乎相等;

20、因此a,b,C可选为0.4,0.3,0.3,0.5,0.25,0.25,0.6,0.2,0.2,0.7,0.15,0.15,0.8,0.1,0.1和0.9,0.05,0.05.但当a,b,c为0.4,0.3,0.3时,前局部纹理模型和后局部纹理模型所占比重过大,中心局部纹理模型的核心作用无法体现出来,因此舍去这组权值,当a,b,C为0.7,0.15,0.15,0.8,0.1,0.1和0.9,0.05,0.05时,前局部纹理模型和后局部纹理模型所占比重过小,在模型构建中作用微弱,因此也舍去这3组权值,实验初步设定a,b,C为0.5,?234?智能系统第6卷0.25,0.25及0.6,0.2,0.

21、2较为合理.图2为EWASM特征点定位实验的加权参数比较.其中(a),(b)是同一幅图像并且初始状态相同,(O),(d)是同一幅图像并且初始状态相同.图2(a),(c)是加权参数为0.5,0.25,0.25迭代7次的结果,(b),(d)是加权参数为0.6,0.2,0.2迭代7次的结果.可见加权参数.,b,C设定为0.6,0.2,0.2的搜索效果相对较好一些.在EWASM算法表情识别实验中,径向基宽度系数r可调节高斯函数的响应范围,依次设为0.10.9.表1的加权参数.,b,c为0.6,0.2,0.2,当r=0.3和0.4时,达到最高识别率为80.91%,此时设定径向基宽度系数为0.3或0.4取

22、得最佳值.表2的加权参数血,b,C为0.5,0.25,0.25,当r=0.5时,达到最高识别率为77.69%,故此时设定径向基宽度系数为0.5.通过EWASM特征点定位实验和表情分类实验可见,加权参数05,6,c的满意值选定为0.6,Q2,0.2时,特征点定位更准确,表情识别率最高;因此本文通过实验优化调整,从而确定加权参数.,b,C的满意值为0.6,0.2,0.2.一一(b)一一(d)图2EWASM实验中加权参数a,b,C的结果对比Fig.2Comparisonofweightedparametersa,b,cinEWASMexperiment表1基于EWASM与RBF表情识别结果(n=0.

23、6,b=0.2,c=0.2)Table1ExpressionrecognitionresultsbasedontheEWASMalgorithmandRBF(n=0.6,b=0.2,C=0.2)表2基于EWASM与RBF表情识别结果(=0.5,b=0.25,C=0.25)Table2ExpressionrecognitionresultsbasedonEWASMalgorithmandRBF(.=0.5,b=0.25,c=0.25)第3期彭程,等:基于局部纹理ASM模型的人脸表情识别2.2EWASM算法实验图3和图4分别是初始化相同情况下传统ASM与EWASM算法的搜索过程对比,传统ASM算法

24、最终迭代l5次得到搜索结果,而本文提出的EWASM算法只需要迭代7次,比传统ASM迭代次数少,并且定位效果更精确,传统ASM算法在左眼眉尖与嘴巴处定位发生了错误,而EWASM算法通过特征点之间互相作用,可以将偏差较大的点拉回至更准确的位置.因此实验结果表明提出的EWASM算法提高了搜索的精度,加快了收敛速度.同样图5中,在初始条件相同的情况下,EWASM算法最终搜索效果明显优于传统ASM的搜索效果,传统ASM算法在嘴巴处定位发生了错误,并且EWASM需要的迭代次数更少,由此也验证了EWASM算法的有效性.(a)初始化(h)迭代7次图3传统ASM算法的搜索过程Fig.3ClassicalASMa

25、lgorithmsearchperformance(a)初始化(b)迭代3次图4EWASM算法的搜索过程Fig.4EWASMalgorithmsearchperformance(a)传统ASM达代15次(b)EWASM迭代5次图5传统ASM与EWASM算法对比Fig.5ComparisonofsearchperformancebetweenclassicalASMandEWASM2.3基于RBF神经网络分类器表情识别实验2.3.1表情识别实验比较将EWASM算法与传统ASM算法的表情识别结果进行比较,如表1与表3,其中训练样本和测试样本同前文表情识别实验一致,表中径向基宽度系数r依次为0.10

26、.9.表3基于传统ASM与RBF表情识别结果(0:0.6,b=0.2,C=0.2)Table3ExpressionrecognitionresultsbasedonclassicalASMandRBF(.=0.6,b=0.2,C=0.2)从表3中可以看出,当r=0.4和0.5时,传统ASM的表情识别率最高为70.04%.由前文所示的表1可见,改变不同的基函数宽度系数r得到EWASM平均表情识别率的最高值为8O.91%,明显优于传统ASM算法,再次验证了EWASM算法的有效性.2.3.2改变样本图像下表情识别实验比较在2.3.1节的表情识别实验中,测试样本的10个人与训练样本中的10个人是相同的

27、,为了进一步说明EWASM算法的可行性,本文改变训练样本和智能系统第6卷测试样本,再次采用RBF神经网络分类器进行表情识别实验,其中训练样本选取JAFF数据库中6位女性的表情图像共126幅,测试样本在另外4位女性的表情图像样本中选取,共70幅,其中各种表情的样本数目均为10幅.EWASM算法与传统ASM算法的表情识别结果如表4与表5所示,径向基宽度系数r依次为0.10.9,其中EWASM算法中加权参数0,b,C为0.6,0.2,0.2.表4中当r=0.5和0.6时,EWASM算法的表情识别率最高为75.7l%,表5中当r=0.4和0.5时传统ASM的表情识别率最高为65.71%,由此表明本文提

28、出的EWASM算法具有可行性和有效性,但由于本次实验训练样本中的人与测试样本中的人不同,故表情识别率没有2.3.1中表情实验的识别率高.表4不同样本下基于EWASM与RBF表情识别结果(.=0.6,b=0.2,C=0.2)Table4ExpressionrecognitionresultsbasedonEWASMandRBFwitlldifferentsamples(0:0.6,b=0.2,c=0.2)表5不同样本下基于传统ASM与RBF表情识别结果(o=0.6,b=0.2,C=0.2)Table5ExpressionrecognitionresultsbasedonclassicalASMa

29、ndRBFwithdifferentsamples(=0.6,b=0.2,c:0.2)2.4基于EWASM与RBF的表情识别结果分析基于EWASM算法与RBF神经网络分类器的表情识别实验结果表明,最高识别率能达到80.91%,识别效果受到以下2个方面的影响.1)本文表情识别实验是自动搜索表情特征点作为神经网络的输入,特征点为40个,相对其他ASM的方法,特征定点较少,计算量更小,搜索速度更快,但特征点定位的准确性可能降低,因此RBF识别率会受到影响.2)表情图像中因一些表情变化比较轻微,还有第3期彭程,等:基于局部纹理ASM模型的人脸表情识别?237?一些图像表情是复合表情,因此难以识别准确.

30、例如图6中,(a)和(b)分别是生气表情和悲伤表情,但由于表情变化过于轻微被误认为中性表情;(C)是厌恶中夹杂恐惧,所以也被误判;(d)是恐惧的表情中带着惊讶,故被误判.(C)(d)图6识别失败的表情举例Fig.6Examplesofunsuccessfulexpressionrecognition3结束语本文在传统ASM算法基本思想的基础上,针对其迭代过程容易陷入局部最优解的不足,提出了一种改进局部纹理模型的EWASM算法,EWASM算法对衡量模型匹配程度的马氏距离进行了推广,从而得到了扩展加权局部纹理模型,并对其相应的加权参数进行实验优化,使各个特征点互相制约,有效地解决了局部最小问题.实

31、验表明提出的EWASM算法具有可行性和有效性,算法的迭代次数减少,进而缩短了定位的时间,提高了表情识别率.由于传统的ASM只能描述一些线性的形状变化,而非线性的形状变化往往在实际问题中更加普遍,因此目标形状的非线性是有待解决的问题,这是实现自动人脸表情识别从实验室平台转化到实际应用的关键.参考文献:1COOTESTF,TAYLORCJ.Activeshapemodels-theirtrainingandapplicationJ.ComputerVisionandImageUnderstanding,1995,61(1):38-59.2COOTESTF,TAYLORCJ,EDWARDSGJ.Ac

32、tive印-pearancemodelsC/EuropeanConferenceonComputerVision.Berlin,Germany,1998:484-498.3MATTHEWSI,BAKERS.ActiveappearancemodelsrevisitedJ.InternationalJournalofComputerVision,2004,60(2):135164.4ROGERSM,GRAHAMJ.RobustactiveshapemodelsearchJ.LectureNotesinComputerScience,2002,2353:517-530.5VanGINNEKENB,

33、FRANGIAF,STAALJJ,eta1.ActiveshapemodelsegmentationwithoptimalfeaturesJ.IEEETransactionsonMedicalImaging,2002,21(8):924-933.6KOENDERINKJJ,VanDOORNAJ.ThestructureoflocallyorderlessimagesJ.InternationalJournalofComput-erVision,1999,31(2/3):159168.7FARUQUIETA,MAJUMDARA,RAJPUTN,eta1.Largevocabularyaudio-

34、?visionspeechrecognitionusingac-tiveshapemodelsC/InternationalConferenceonPatternRecognition.Barcelona,Spain,2000:3-8.8HAMARNEHG,GUSTAVSSONT.Deformablespatialtemporalshapemodels:extendingASMto2D+timec/BritishMachineVisionConference.Manchester,UK,2001:1322.9李皓,谢琛,唐朝京.改进的多模版ASM人脸面部特征定位算法J.计算机辅助设计与图形学,

35、2010,22(10):17621768.LIHao,XIEChen,TANGChaojing.AnimprovedalgorithmforfacialfeaturelocationbymultitemplateASMJ.JournalofComputeraidedDesign&ComputerGraphics.2010,22(10):17621768.10CHENSY,ZHANGJ,GUANQ,eta1.DetectionandamendmentofshapedistortionsbasedonmomentinvariantsforactiveshapemodelsJ.IETImag

36、eProcessing,2011,5(3):273-285.11冀贞海,孙宁,邹采荣,等.基于加权主动形状建模的人脸特征定位方法J.电子与信息,2007,29(4):8O0.803.JIZhenhai,SUNNing,ZOUCairong,eta1.FacealignmentbasedonweightedactiveshapemodelsJ.JournalofElectronics&InformationTechnology,2007,29(4):8O0803.12孙正兴,姚伟.从视频中恢复三维人脸实时方法J.智能系统,2009,4(5):427-432.SUNZhengxing,YA

37、OWei.Arealtimemethodforrecovering3DfacesfrommonocularvideoJ.CAAITransac-tionsonIntelligentSystems,2009,4(5):427-432.13COOTESTF,HILLA,TAYLORCJ,eta1.TheuseofactiveshapemodelsforlocatingstructuresinmedicalimagesJ.ImageandVisionComputing,1994,12(6):355.366.?238?智能系统第6卷作者简介彭程,女,1987年生,硕士研究生,主要研究方向为模式识别,计

38、算机视觉.刘帅师,女,1981年生,博士研究生,主要研究方向为模式识别,计算机视觉.万川,男,1985年生,博士研究生,主要研究方向为模式识别,计算机视觉.田彦涛,男,1958年生,教授,博士生导师,博士.吉林大学自动化研究所所长,中国自动化学会理事,中国自动化学会机器人专业委员会常务委员,吉林省自动化学会理事长,吉林省通信学会副理事长,吉林省电机工程学会常务理事,中科院沈阳自动化研究所先进制造技术实验室学术委员会委员,中国自动化学会机器人编委,吉林大学(信息科学版)副主编.主要研究方向为复杂系统建模,优化与控制,机器视觉与模式识别等.近5年,完成国家863计划项目1项,国家自然科学基金项目1

39、项,吉林省科技发展计划项目3项,国家863智能机器人网点实验室基金项目1项;目前负责承担国家863计划项目和国家自然科学基金项目等国家级科研项目3项,吉林省科技发展计划重点项目3项.曾被评为国家机械部优秀科技青年,机械部和教育部跨世纪学科带头人,2004年被评为吉林省拔尖创新人才.发表学术论文70余篇.2011模糊工程与智能交通国际学术会议2011InternationalJointConferenceonFuzzyEngineeringandIntelligentTransp0rtati0n(FEIT2011)2011InternationalJointConferenceonFuzzyEn

40、gineeringandIntelligentTransportation(FEIT2011)willbeheldinXian,Chinafrom10_11,December,2011,whichwillprovidesaunifiedcommunicationplatformforresearchersinawideareaoftopicsfrompureandappliedmathematics,computerscience,engineering,transportationandotherrelatedfields.Thethemeoftheplenarysessionisfuzzy

41、engineeringandintelligenttransportationfeaturinginvitedspeakerswhowillfurtherexplorethistopicthatisSOsignificantinthesefields.Concurrentsessionsandapostersessionwillcoverawiderangeoftopicsandissues,includingbothcontributedpapersandspecialsessionsdevelopedonspecificthemes.Topicswillrangefromthetheori

42、estothepracticemethodsandtechnology;italsofocusesonapplications,whilealsopresentingfundamentalwork.Thecontentsincluderegularpapers,shortcommunications,andreviews.TheobjectiveofFElT2011willbringtogetherresearchersworkingonfuzzyengineeringandintelligenttransportation,andbringtogetherresearchersandprac

43、titionersinordertofosterthecollaborationonresearchandapplicationandpresentanddiscussopenresearchproblemsandnovelapplications.ImportantDatesPapersubmission:August15,2011Acceptance:September15,2011Cameraready:September30,2011Earlyregistration:October20,2011Conference:December10_】1,2011E-mail:feitconf126.tom,feitconfgmail.tomWebstie:http:/www.feitconf.org/index.htm1曩一曩

展开阅读全文
温馨提示:
1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
2: 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
3.本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!