[发明专利]基于眨眼的活体检测方法、装置、可读存储介质及设备有效
申请号: | 201910352702.9 | 申请日: | 2019-04-29 |
公开(公告)号: | CN111860056B | 公开(公告)日: | 2023-10-20 |
发明(设计)人: | 周军;王洋;江武明;丁松 | 申请(专利权)人: | 北京眼神智能科技有限公司;北京眼神科技有限公司 |
主分类号: | G06F21/32 | 分类号: | G06F21/32;G06V10/00;G06N3/04 |
代理公司: | 北京头头知识产权代理有限公司 11729 | 代理人: | 刘锋 |
地址: | 100085 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 眨眼 活体 检测 方法 装置 可读 存储 介质 设备 | ||
本发明公开了一种基于眨眼的活体检测方法、装置、计算机可读存储介质及设备,属于人脸识别领域。该方法包括:对连续多帧人脸图像进行预处理,得到眼部图像;将眼部图像输入轻量级神经网络,得到人眼特征向量;使用多元回归softmax计算人眼特征向量的得分,若得分大于设定分值,则判定人眼状态是闭眼,否则,判定人眼状态是睁眼;根据所有人眼状态判断是否有眨眼动作,若存在眨眼动作,则活体检测通过,否则,活体检测不通过。其中,轻量级神经网络包括4个卷积层、4个池化层、1个全连接层和1个sigmoid层,损失函数为binary log los。本发明不但能够解决眨眼判断中姿态、光照等变化导致分类准确率下降的问题,还可以使得人脸活体检测的响应时间较短且稳定。
技术领域
本发明涉及人脸识别领域,特别是指一种基于眨眼的活体检测方法、装置、计算机可读存储介质及设备。
背景技术
随着人脸识别和认证在金融、信息安全等领域的广泛应用,出现越来越多的身份盗用、虚假身份的问题,其中主要是采用假体对识别和认证系统进行攻击。所以,人脸活体检测具有极其重要的意义。而基于眨眼检测的人脸检活方法则具有用户配合度低,判断准确度高等优点而被广泛的采用。
按照眨眼判断的规则区分,现有技术中基于眨眼的活体检测方法大体上可以分为基于特征点定位的方法和基于图像分类的方法两类。
(1)基于特征点定位的方法
基于特征点定位的方法是根据连续几帧图像人眼特征点位置的相对变化来判断是否有眨眼动作。针对连续几帧图像首先要进行特征点定位,并根据连续两帧或几帧图像中人眼同一位置点坐标的差值来判断是否有眨眼动作。具体来说,眨眼动作存在时,人眼上部分定位的特征点应先向下移动在向上移动,即特征定位点的纵坐标应先减小在增大,人眼下部分定位的特征点应该恰好相反,并且同时存在。
基于人脸特征点定位的眨眼判断方法需要完全依赖于较准确人脸特征点定位。并且,该方法需要准确的描述人眼周围的多个关键点,需要定位的关键点多而准确,但现实中定位的准确性极易受到光照、姿态等外界变化的影响。所以,该方法对特征点定位的依赖性较高,对光照等变化鲁棒性较差。
(2)基于图像分类的方法
该方法是根据人眼的图像判断其状态为睁眼或是闭眼,通过连续多帧的状态统计判断是否存在眨眼动作。针对图像进行二分类(睁眼或是闭眼),分类算法会直接影响最终的判断结果,基于传统方法的二分类精度相对较低,基于深度学习的方法的准确性依赖于网络的深度和宽度,但深度和宽度较大的卷积神经网络会导致较慢的计算速度。
发明内容
为解决上述技术问题,本发明提供一种基于眨眼的活体检测方法、装置、计算机可读存储介质及设备,本发明不但能够解决眨眼判断中姿态、光照等变化导致分类准确率下降的问题,还可以使得人脸活体检测的响应时间较短且稳定。
本发明提供技术方案如下:
第一方面,本发明提供一种基于眨眼的活体检测方法,所述方法包括:
对获取的连续多帧人脸图像进行预处理,得到多帧人脸图像的眼部图像;
将所述多帧人脸图像的眼部图像输入预先训练的轻量级神经网络,得到多个人眼特征向量;
使用多元回归softmax计算每个人眼特征向量的得分,若人眼特征向量的得分大于设定分值,则判定该帧人脸图像的人眼状态是闭眼,否则,判定该帧人脸图像的人眼状态是睁眼;
根据所有人脸图像的人眼状态判断是否有眨眼动作,若存在眨眼动作,则活体检测通过,否则,活体检测不通过;
其中,所述轻量级神经网络包括4个卷积层、4个池化层、1个全连接层和1个sigmoid层,所述轻量级神经网络的损失函数为binary log los。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京眼神智能科技有限公司;北京眼神科技有限公司,未经北京眼神智能科技有限公司;北京眼神科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910352702.9/2.html,转载请声明来源钻瓜专利网。