[发明专利]面向大型直播场景的单人特写实时识别与自动截图方法有效
申请号: | 201810222737.6 | 申请日: | 2018-03-16 |
公开(公告)号: | CN108491784B | 公开(公告)日: | 2021-06-22 |
发明(设计)人: | 张晖;杨纯 | 申请(专利权)人: | 南京邮电大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;H04N21/2187 |
代理公司: | 南京苏科专利代理有限责任公司 32102 | 代理人: | 徐振兴;姚姣阳 |
地址: | 210003 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 面向 大型 直播 场景 单人 特写 实时 识别 自动 截图 方法 | ||
1.一种面向大型直播场景的单人特写实时识别与自动截图方法,其特征在于,
具体步骤如下:
步骤1,实时获取直播视频信号,对视频流中的每帧图像中值滤波后转换到YCgCr颜色空间,并建立肤色模型,对图像进行肤色检测,通过形态学处理后去除背景区域,获得候选肤色区域;
步骤2,基于步骤1的肤色检测,采用Adaboost算法训练基于Haar-like特征的人脸分类器对候选肤色区域进行人脸检测,得到人脸区域;
步骤3,采用多尺度Struck跟踪算法对步骤2检测到的人脸区域实时跟踪,并计算跟踪的人脸个数,只有当检测到的人脸个数为1时才保留当前帧图像,其余的舍弃;
步骤4,在步骤3的基础上,采用基于Haar-like特征的Adaboost算法检测人眼,并获得双眼位置坐标L(x1,y1),R(x2,y2),进而通过设定比例求得人脸矩形位置;
步骤5,对每个人脸区域图像进行人脸大小、清晰度、位置以及角度评估后经加权计算得到人脸图像的得分,选取得分最高的作为人脸区域图像中的最优脸;
步骤6,将含有最优脸的当前视频帧图像进行截图保存,送入人脸识别模块,输出识别结果;
步骤5中,所述人脸大小评估方法如下:
通过人脸区域图像面积占整幅原始自然人脸图像面积的比例进行评估,具体计算公式如下:
其中,T为设定的人脸有效区域最小面积,可根据实际情况进行设定;Sface表示人脸有效区域面积,即有效区域总像素数;S表示包含人脸图像的原始自然图像面积,即原图像总像素数;
步骤5中,所述人脸清晰度评估方法如下:
对人脸区域图像采用Canny算子进行边缘检测,再对检测结果的边缘清晰度和灰度分布情况进行分析,综合这两方面的因素获得图像清晰度指标,其公式计算如下:
1)首先计算图像边缘清晰度指标:
其中,α是边缘点数目占整幅人脸图像的比例;
2)然后计算灰度统计信息的清晰度指标:;其中,表示Canny边缘检测后人脸图像灰度的平均值,即M×N表示原图像总像素个数;
3)最后,将p和η两个指标进行融合,可得最终的人脸有效区域清晰度指标Q2=0.5(p+η);
步骤5中,所述人脸位置的评估方法如下:
根据双眼坐标求出脸部矩形的中心坐标(xc,yc),求出归一化后的脸部矩形中心坐标(xc,yc)到人脸图像中心的距离d,归一化准则:使人脸图像中心到其上对角点的距离为到其下对角点的距离为计算人脸位置评价系数Q3:Q3=1-d;
步骤5中,所述人脸角度的评估方法如下:
根据双眼坐标求出眼睛的倾斜角度计算人脸倾斜角度评价系数
步骤5中,所述加权计算得到人脸区域图像的得分方法如下:
1)如果Q1=0,则vscore=0,Vscore是每帧图像的得分;
2)如果Q1≠0,则vscore=w1Q1+w2Q2+w3Q3+w4Q4,其中w1+w2+w3+w4=100;
上述权重系数w1=25,w2=30,w3=30,w4=15。
2.根据权利要求1中所述的-种面向大型直播场景的单人特写实时识别与自动截图方法,其特征在于,步骤2中Adaboost算法,用正负人脸样本训练基于Haar-like特征的强分类器,并将强分类器串联成级联分类器,实现快速实时的人脸检测。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810222737.6/1.html,转载请声明来源钻瓜专利网。
- 上一篇:用于生成信息的方法和设备
- 下一篇:一种混合自动重传请求方法及装置