[发明专利]基于增量主成分分析的特征与模型互匹配人脸跟踪方法有效
申请号: | 201310267907.X | 申请日: | 2013-06-28 |
公开(公告)号: | CN103310204A | 公开(公告)日: | 2013-09-18 |
发明(设计)人: | 吴怀宇;潘春洪;陈艳琴;赵两可 | 申请(专利权)人: | 中国科学院自动化研究所 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46 |
代理公司: | 中科专利商标代理有限责任公司 11021 | 代理人: | 宋焰琴 |
地址: | 100190 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 增量 成分 分析 特征 模型 匹配 跟踪 方法 | ||
1.一种基于在线增量主成分分析的特征与模型互匹配人脸跟踪方法,其特征在于,该方法包括以下步骤:
步骤S1,对于多幅人脸图像进行离线建模,得到包括形状模型s和纹理模型wT的模型匹配(CLM)模型A;
步骤S2,输入一待跟踪人脸视频,对于所述待跟踪人脸视频中的每一帧人脸图像进行关键点检测,将所得到的所有关键点的集合和这些关键点的鲁棒描述子组合起来作为关键点模型B;
步骤S3,基于所述步骤S2得到的关键点模型B,对于所述待跟踪人脸视频中的每一帧人脸图像进行关键点匹配,获得每一帧人脸图像中初始的人脸姿态参数组(R,T),其中,R表示角度参数和T表示位移参数;
步骤S4,利用所述模型A对所述待跟踪人脸视频进行CLM人脸跟踪,得到所述待跟踪人脸视频每一帧人脸图像中特征点的位置;
步骤S5,基于所述步骤S3得到的每一帧人脸图像中人脸的姿态参数组和所述步骤S4跟踪得到的每一帧人脸图像中特征点的位置,对所述待跟踪人脸视频中的每一帧人脸图像进行人脸的再跟踪;
步骤S6,使用增量PCA方法对所述模型A进行更新,并利用更新后的模型A重复所述步骤S1-S5,得到最终的人脸跟踪结果。
2.根据权利要求1所述的方法,其特征在于,所述步骤S1进一步包括以下步骤:
步骤S11,根据事先确定的共同的人脸轮廓对所述多幅人脸图像分别进行标定得到多个标定特征点,并根据所述多个标定特征点的坐标值建立得到一人脸形状模型s;
步骤12,基于所述步骤S11得到的每一个标定特征点,学习得到能够体现所述每一个标定特征点对应的具有一定大小区域的纹理特征的纹理模型wT。
3.根据权利要求2所述的方法,其特征在于,所述步骤S11进一步包括:
步骤S111,采集N张人脸图像,对于每张人脸图像都依照所述共同的人脸轮廓进行人为标定,得到多个标定特征点,进而得到N个人脸形状向量sm:
sm=(x1,y1,x2,y2,...,xn,yn)T,
其中,m表示N张人脸图像中的第m张人脸图像,xi,yi分别为相应人脸图像中第i个标定特征点的坐标值,n为所述标定特征点的个数;
步骤S112,用一个平均人脸形状s0和u个正交的人脸形状向量si进行线性组合得到所述人脸形状模型s:
其中,平均人脸形状s0为N个人脸形状向量sm的均值,pi是形状参数,
其值为对所述N个人脸形状向量sm进行主成分分析后得到的u个特征向量si所对应的权值。
4.根据权利要求3所述的方法,其特征在于,在所述步骤S112中进行主成分分析前,对所述N个人脸形状向量sm分别进行普鲁斯特分析,以减小运动误差。
5.根据权利要求2所述的方法,其特征在于,所述步骤12进一步包括以下步骤:
步骤S121,以所述步骤S11得到的每一人脸图像的每一个标定特征点为中心,取一个大小为r×r的区域作为正样本,在相应图像中的任意其他位置处截取多个同样大小的区域作为负样本;
步骤S122,基于每个标定特征点所对应的样本组,利用支持向量机得到每个标定特征点对应的纹理模型wT。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院自动化研究所,未经中国科学院自动化研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201310267907.X/1.html,转载请声明来源钻瓜专利网。