[发明专利]一种流量统计方法、装置、电子设备及存储介质在审
申请号: | 202011182578.5 | 申请日: | 2020-10-29 |
公开(公告)号: | CN114429596A | 公开(公告)日: | 2022-05-03 |
发明(设计)人: | 邓玉婧;杨海峰;潘竞旭;任钦正;李萌;鲁龙;宋颖 | 申请(专利权)人: | 航天信息股份有限公司 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V10/774;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 北京同达信恒知识产权代理有限公司 11291 | 代理人: | 王娇 |
地址: | 100195 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 流量 统计 方法 装置 电子设备 存储 介质 | ||
1.一种流量统计方法,其特征在于,包括:
获取待处理图像,其中,所述待处理图像由固定安装的图像采集设备采集;
采用完成训练的图像处理模型,对所述待处理图像进行透视变换处理和目标对象识别处理,得到所述图像处理模型输出的,映射有各个目标对象各自对应的元素区域的密度矩阵,所述图像处理模型是基于卷积神经网络VGG架构搭建的,所述密度矩阵中表征不同目标对象的不同元素区域的元素值之和相同;
计算所述密度矩阵中各个元素值之和,并基于所述各个元素值之和确定所述待处理图像中目标对象的流量。
2.如权利要求1所述的方法,其特征在于,所述采用完成训练的图像处理模型,对待处理图像进行透视变换处理和目标对象识别处理之前,进一步包括:获得用于进行图像处理模型的训练的样本数据,具体包括:
获取多个原始图像,针对各个原始图像分别执行以下操作,直至全部原始图像处理完成:
确定并标注一个原始图像中包含的各个目标对象的中心点,并确定所述一个原始图像中的预先设置的用于进行客流量统计的样本处理区域,以及采用透视变换的处理方式,将所述样本处理区域校正为正投影的样本处理图像,其中,所述一个原始图像是由固定安装的图像采集设备采集的;
对应所述样本处理图像中的各个像素点,设置对应的元素值,并生成包含有各个元素值的样本矩阵,其中,所述样本矩阵中各个目标对象中心点所对应的元素取值相同,各个目标对象中心点所对应的元素取值相同;
采用高斯滤波处理方式,基于取值固定的高斯核函数的宽度参数,对所述样本矩阵进行处理,得到对应的样本密度矩阵,并将所述原始图像,以及对应的样本密度矩阵,作为一条样本数据。
3.如权利要求2所述的方法,其特征在于,所述获得用于进行图像处理模型的训练的样本数据之后,所述将所述待处理图像输入完成训练的图像处理模型中之前,进一步包括,对图像处理模型进行训练,具体包括:
获取样本数据,并针对各个样本数据分别执行以下操作,直至图像处理模型的训练轮数达到设定阈值:
将一个样本数据中的原始图像输入图像处理模型,获得所述图像处理模型输出的密度矩阵,所述密度矩阵中的各个元素对应所述原始图像中的各个像素点,所述密度矩阵中的不同元素区域对应所述原始图像中的不同目标对象且不同元素区域的元素之和固定相同;
获得所述图像处理模型输出的密度矩阵,并采用最小二乘损失函数,根据所述密度矩阵与所述一个样本数据中的样本密度矩阵之间相对位置相同的各个元素的取值差异,确定所述图像处理模型的损失值;
基于所述损失值调整所述图像处理模型中参与生成所述密度矩阵的影响参数。
4.如权利要求1-3任一项所述的方法,其特征在于,搭建所述图像处理模型的过程中,将VGG网络架构中的全连接层替换为反卷积层。
5.如权利要求2所述的方法,其特征在于,所述获取多个原始图像之前,进一步包括:
获取固定安装的图像采集设备采集的至少一个视频流,确定所述视频流的帧率;
降低所述视频流的帧率至预设值后,按照调整后的帧率获取所述至少一个视频流中的图像帧,并将获取的各个图像帧作为原始图像。
6.一种流量统计装置,其特征在于,包括:
获取单元,获取待处理图像,其中,所述待处理图像由固定安装的图像采集设备采集;
处理单元,采用完成训练的图像处理模型,对所述待处理图像进行透视变换处理和目标对象识别处理,得到所述图像处理模型输出的,映射有各个目标对象各自对应的元素区域的密度矩阵,所述图像处理模型是基于卷积神经网络VGG架构搭建的,所述密度矩阵中表征不同目标对象的不同元素区域的元素值之和相同;
计算单元,计算所述密度矩阵中各个元素值之和,并基于所述各个元素值之和确定所述待处理图像中目标对象的流量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于航天信息股份有限公司,未经航天信息股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011182578.5/1.html,转载请声明来源钻瓜专利网。