[发明专利]一种基于深度学习的实时场景小脸检测方法在审
申请号: | 201910003383.0 | 申请日: | 2019-01-03 |
公开(公告)号: | CN109886083A | 公开(公告)日: | 2019-06-14 |
发明(设计)人: | 杭丽君;丁明旭;叶锋;赵兴文;宫恩来 | 申请(专利权)人: | 杭州电子科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 杭州君度专利代理事务所(特殊普通合伙) 33240 | 代理人: | 朱月芬 |
地址: | 310018 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 预测 实时场景 脸检测 尺度调整 底层特征 人脸检测 实时监测 算法融合 语义特征 人流量 特征层 置信度 顶层 级联 检出 人脸 算法 学习 整合 剔除 架构 尺度 筛选 场景 涵盖 融合 引入 检测 | ||
本发明提出了一种基于深度学习的实时场景小脸检测方法,本发明首先将包含更多小脸信息的更底层特征和涵盖丰富语义特征的顶层特征层融合起来进行级联检测,来提高模型的小脸检出能力。其次根据实时监测场景下的人脸尺度调整生成的预测框尺度和比例。最后本发明在预测阶段引入soft and hard nms算法筛选预测框,将softnms和传统nms算法融合,设立两个阈值将预测框按照IoU划分为不同段,对处于不同阈值范围内的预测框置信度分数采取不同的方式进行重打分,更精准地剔除不必要的预测框。本发明更容易整合在基于深度学习任务中的人脸检测架构中,适用于人流量较大场合。
技术领域
本发明涉及目标检测领域,具体涉及一种基于深度学习的实时场景小脸检测方法。
背景技术
近年来深度学习方案的引入使得分类、识别和目标检测技术不断的趋于完善,相应地,相关技术的成熟也将深度学习推向众多应用领域并且获得巨大的发展和实际的应用价值。在这众多领域之中人脸检测的研究如火如荼的开展,无论是日常生活中常用的各类摄像头或者是大型商场,客运站,展览馆等人流密集的公共场所的监控设施,往往需要清楚地辨识关键人物,这就需要采取人脸检测和识别的技术。但在这些场景下人员的集散往往是流动且无序的,同时目标众多,背景环境复杂,监控设备本身的噪音等等因素使得实时场景下的人脸检测,尤其是小脸检测面临着巨大的考验。恰恰在应用场景下良好的小脸检测性能是弥足重要的,这就要求投入应用的模型在满足实时检测的速度条件下又需要同时具备非常鲁棒的小脸检出性能。
在深度学习技术中,分类网络是目标检测等任务的基础,近年来最初的AlexNet架构的提出使得神经网络重新占据分类任务的主流地位。紧随其后的更深层次的VGG16/VGG19探索了在卷积神经网络架构中深层次的网络对整体架构带来的性能改进,以及同期的GoogleNet,提出了“inception”架构的概念,解决了深度和宽度的受限。再到后来的残差网络ResNet提出了新颖的resnet block架构,采用精巧的短连接克服网络深度所带来的梯度消失问题。直到2017年发表的DenseNet,提出采取密集连接的思想使得分类网络的精度和速度进一步提升,计算负担进一步减轻。在这个发展过程中分类网络的性能不断提升,以这些分类网络做基础的目标检测任务也因此不断的成熟。
采用这些优良性能的卷积神经网络作为特征提取基础网络的目标检测框架主要有两大类别,一种是基于提出区域候选框方案的两步网络,一种是不需要提出候选框的单次网络。第一类网络中非常著名的有R-CNN,Fast R-CNN,Faster R-CNN等。R-CNN的每一个候选框都需要运行一次CNN,这造成时间成本消耗巨大;Fast R-CNN对整张图只运行一次CNN提取特征,因此速度得到了较好的提升,Faster R-CNN,将卷积特征直接输入到RPN得到候选框的特征信息,进一步提高了速度与准确率。第二大类别方案较为著名的有You OnlyLook Once(YOLO)和Single Shot MultiBox Detector(SSD)。YOLO基于一个单独的end-to-end(端对端)网络,将物体检测问题定义为分类置信度和bounding box(坐标框)的回归问题,提高了检测的速度与精度;SSD相比Fast R-CNN系列,删除了bounding box proposal(提出区域候选框)这一步骤及后续的重采样步骤,因而速度更快,达到59frames persecond(FPS),使得速度与进度进一步提高。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910003383.0/2.html,转载请声明来源钻瓜专利网。