[发明专利]一种基于稀疏表示的人脸识别方法有效
申请号: | 201810398110.6 | 申请日: | 2018-04-27 |
公开(公告)号: | CN108764049B | 公开(公告)日: | 2021-11-16 |
发明(设计)人: | 周全;从德春;杨文斌;卢竞男;王雨 | 申请(专利权)人: | 南京邮电大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 南京苏科专利代理有限责任公司 32102 | 代理人: | 陈望坡;姚姣阳 |
地址: | 210003 江苏省南京*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 稀疏 表示 识别 方法 | ||
本发明公开了一种基于稀疏表示的人脸识别方法,包括以下步骤:步骤一:先输入训练样本矩阵,将所有训练样本与所有的对象类别级联起来,再输入一个测试样本;步骤二:将训练样本矩阵中的每个训练样本分别与测试样本进行校准,得到校准训练样本矩阵;步骤三:将校准训练样本矩阵进行标准化;步骤四:计算标准化后的校准训练样本矩阵中的每个训练样本与对应的标准图之间的误差,得到误差最小值;步骤五:计算测试样本与对应的标准图之间的剩余误差;步骤六:为所有的对象类别设置身份;步骤七:输出误差最小值对应的训练样本所对应的对象类别作为测试样本的对象类别。本发明的优点是:能更好地适应面部图像的非刚性视觉变化,识别精度和计算效率高。
技术领域
本发明涉及图像数据处理技术领域,具体涉及一种基于稀疏表示的人脸识别方法。
背景技术
随着大数据技术的快速发展,越来越多的面部图像已经出现上传到互联网。人脸识别作为最重要的视觉任务,从面部图像特征的未知对象中识别特定身份,已经在计算机视觉中进行了广泛的研究,如面部情感识别,视频监控和生物识别等。
最近,稀疏表示模型(SRM)被提出用于人脸识别的任务。其主要思想是在一个完整的字典上重建测试样本,基本元素是训练面部图像本身。一旦测试图像可以被所有的训练样本跨空间的线性表示,就可以使用稀疏重构来识别相关类别。SRM实现了令人印象深刻的结果,以抵抗面部图像的照明,遮挡和腐蚀的视觉变化,这引起了人们进一步研究SRM的极大兴趣。因此,在过去十年中已经提出了SRM的许多变体,如基于Gabor特征的SRM,局部约束SRM,稀疏密集混合SRM和字典学习SRM。虽然SRM获得了令人印象深刻的分类结果,但它们依赖于一个假设,训练和测试图像都需要线性相关。违反这一假设无疑导致基于稀疏表示的分类表现不佳。特别是在实际应用的场景中,由于非刚性的视觉变形(未对准,取向,姿势变化和面部表情的变化),不同主题类别的面部图像往往与相同主题的相关性较小类。为了提高训练样本与同一类的相关性,Peng等寻找一组最佳图像变换来调整面部图像。对于实际应用,Wagner等提出了一种改进的人脸识别系统,虽然不受测试样本线性相关的约束,但仍存在识别精度低、识别效率低、以及无法适应面部图像的非刚性视觉变化等缺点。
发明内容
本发明的目的是提供一种识别精度高且识别效率高的基于稀疏表示的人脸识别方法。
为实现上述目的,本发明采用了如下技术方案:所述的一种基于稀疏表示的人脸识别方法,包括以下步骤:
步骤一:先输入训练样本矩阵,将训练样本矩阵中的所有训练样本与所有的对象类别级联起来,再输入一个测试样本;
步骤二:将训练样本矩阵中的每个训练样本分别与测试样本进行校准,得到校准训练样本矩阵;
步骤三:将步骤二得到的校准训练样本矩阵进行标准化;
步骤四:计算步骤三得到的标准化后的校准训练样本矩阵中的每个训练样本与对应的标准图之间的误差,得到误差最小值;
步骤五:计算测试样本与对应的标准图之间的剩余误差;
步骤六:根据步骤五得到的剩余误差为所有的对象类别设置身份;
步骤七:输出步骤四得到的误差最小值对应的训练样本所对应的对象类别作为测试样本的对象类别。
进一步地,前述的一种基于稀疏表示的人脸识别方法,其中:在步骤二中,训练样本与测试样本进行图像校准,包括以下步骤:
步骤(1):输入训练样本图像与测试样本图像;
步骤(2):将训练样本图像与测试样本图像分别以金字塔模型分成四个单元格,并将每个单元格分成四个较小的单元格,直到达到预设的金字塔层数才终止;
步骤(3):将训练样本图像与测试样本图像中的每个单元格分别定义成一个节点;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810398110.6/2.html,转载请声明来源钻瓜专利网。