[发明专利]用于生成人群密度信息的方法和装置有效
申请号: | 201910290676.1 | 申请日: | 2019-04-11 |
公开(公告)号: | CN109961060B | 公开(公告)日: | 2021-04-30 |
发明(设计)人: | 袁宇辰;谭啸;文石磊;丁二锐 | 申请(专利权)人: | 北京百度网讯科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 北京英赛嘉华知识产权代理有限责任公司 11204 | 代理人: | 王达佐;马晓亚 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 生成 人群 密度 信息 方法 装置 | ||
1.一种用于生成人群密度信息的方法,包括:
获取图像特征和深度图像,其中,所述图像特征和所述深度图像基于同一张待检测图像而生成;
将所述图像特征和所述深度图像输入至预先训练的人群密度分布生成网络,得到人群密度热图,其中,所述人群密度分布生成网络用于表征图像特征和深度图像与人群密度热图之间的对应关系,所述人群密度热图用于表征图像特征对应的图像中各位置显示有人像的概率。
2.根据权利要求1所述的方法,其中,所述图像特征通过如下步骤生成:
获取基于所述待检测图像而生成的图像预处理数据;
将所述图像预处理数据输入至预先训练的特征提取网络,得到所述图像特征,其中,所述特征提取网络用于表征图像预处理数据与图像特征之间的对应关系。
3.根据权利要求2所述的方法,其中,所述深度图像通过如下步骤生成:
将所述图像预处理数据输入至预先训练的深度信息生成网络,得到所述深度图像,其中,所述深度信息生成网络用于表征图像预处理数据与深度图像之间的对应关系。
4.根据权利要求3所述的方法,其中,所述特征提取网络、所述深度信息生成网络和所述人群密度分布生成网络通过如下步骤训练得到:
获取训练样本集合,其中,训练样本包括样本图像和与样本图像对应的样本标注信息,样本标注信息用于表征样本图像中显示的人像的数目;
从所述训练样本集合中选取训练样本,以及执行以下训练步骤:将基于选取的训练样本生成的样本图像预处理数据分别输入初始特征提取网络和初始深度信息生成网络,得到与输入的样本图像预处理数据对应的图像特征和深度图像;将所得到的图像特征和深度图像输入初始人群密度分布生成网络,得到与输入的深度图像和图像特征对应的人群密度热图;根据所得到的人群密度热图确定输入的样本图像预处理数据对应的样本图像中显示的人像的数目;根据所确定的人像的数目与对应的样本标注信息确定损失值;基于所确定的损失值确定初始特征提取网络、初始深度信息生成网络和初始人群密度分布生成网络是否训练完成;响应于确定初始特征提取网络、初始深度信息生成网络和初始人群密度分布生成网络训练完成,将初始特征提取网络、初始深度信息生成网络和初始人群密度生成网络作为所述特征提取网络、所述深度信息生成网络和所述人群密度分布生成网络。
5.根据权利要求4所述的方法,其中,训练得到所述特征提取网络、所述深度信息生成网络和所述人群密度分布生成网络的步骤还包括:
响应于确定初始特征提取网络、初始深度信息生成网络和初始人群密度分布生成网络未训练完成,调整初始特征提取网络、初始深度信息生成网络和初始人群密度分布生成网络的网络参数;以及从所述训练样本集合中选取未选取过的训练样本,使用调整后的初始特征提取网络作为初始特征提取网络,使用调整后的初始深度信息生成网络作为初始深度信息生成网络,使用调整后的初始人群密度分布生成网络作为初始人群密度分布生成网络,继续执行所述训练步骤。
6.根据权利要求4所述的方法,其中,训练样本通过如下步骤得到:
获取样本图像;
确定所述样本图像的标注区域,其中,所述标注区域用于指示所述样本图像中,各人像所在的位置;
基于核函数对所述标注区域进行模糊处理;
根据所述模糊处理后的标注区域确定样本标注信息;
将所述样本标注信息和样本图像作为训练样本。
7.根据权利要求1-6之一所述的方法,其中,所述方法还包括:
根据所述人群密度热图,确定所述待检测图像中显示的目标区域内的总人数。
8.根据权利要求7所述的方法,其中,所述方法还包括:
响应于确定所述总人数大于与所述目标区域对应的预设人数阈值,向目标设备发送告警信号。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京百度网讯科技有限公司,未经北京百度网讯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910290676.1/1.html,转载请声明来源钻瓜专利网。