[发明专利]基于密度估计的拥挤场景行人目标检测与计数方法在审
申请号: | 202110258949.1 | 申请日: | 2021-03-10 |
公开(公告)号: | CN113033342A | 公开(公告)日: | 2021-06-25 |
发明(设计)人: | 王琦;张元;李学龙 | 申请(专利权)人: | 西北工业大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 西北工业大学专利中心 61204 | 代理人: | 常威威 |
地址: | 710072 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 密度 估计 拥挤 场景 行人 目标 检测 计数 方法 | ||
1.一种基于密度估计的拥挤场景行人目标检测与计数方法,其特征在于步骤如下:
步骤1:输入若干张拥挤场景图像,利用狄拉克函数与高斯核函数进行卷积得到m每一张图像的标签密度图,计算公式如下:
其中,ρ(x)表示标签密度图生成函数,N表示原始输入图像中的目标人头个数,x表示目标人头在原始图像中的像素位置变量,xi表示第i个目标人头在原始图像中的像素位置,δ(·)为图像中目标人头位置的冲击函数,表示参数为ηi的高斯核函数,β为比例系数,可取值为任意常数,为距离位置xi处目标人头最近的k个目标人头像素位置与该像素之间的平均距离,表示距离位置xi处目标人头最近的第j个目标人头位置与xi之间的距离,1kN;
步骤2:以原始输入拥挤场景图像和经步骤1得到的标签密度图共同作为训练数据,输入到VDNet人群计数网络进行训练,得到训练好的网络;
所述的VDNet人群计数网络包括前端网络和后端网络,其中,选取VGG-16网络的前9层作为前端网络,后端网络包括3层扩张卷积层和1层1×1卷积层;VDNet人群计数网络的输出为输入图像对应的生成密度图;扩张卷积的计算表达式如下:
其中,y(m,n)表示扩张卷积的输出,x表示输入图像,m表示输入图像的长度,n表示输入图像的宽度,(i,j)表示当前进行处理的输入图像第i行第j列像素位置,w表示卷积核,r表示扩张率,r≥1;
训练中设定网络的损失函数为:
其中,L(Θ)表示衡量生成密度图与标签密度图之间误差的损失函数,P是训练批次的大小,即每一批次中包含的输入图像数量,Z(Xi;Θ)表示第i张输入图像Xi经过VDNet人群计数网络处理之后的生成密度图,Θ表示VDNet人群计数网络参数,表示第i张输入图像对应的标签密度图;
步骤3:将任意拥挤场景图像输入到训练好的VDNet人群计数网络,得到生成密度图,对生成密度图的像素进行累加即得到该拥挤场景图像的最终预测人数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学,未经西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110258949.1/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种表面加涂层的芝麻丸配方及其加工方法
- 下一篇:一种水上自航试验平台