[发明专利]统计模型的训练方法、统计方法、装置及存储介质有效
申请号: | 201811322334.5 | 申请日: | 2018-11-07 |
公开(公告)号: | CN109409318B | 公开(公告)日: | 2021-03-02 |
发明(设计)人: | 雷印杰;刘砚;周子钦 | 申请(专利权)人: | 四川大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 北京超凡志成知识产权代理事务所(普通合伙) 11371 | 代理人: | 梁香美 |
地址: | 610000 四*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 统计 模型 训练 方法 装置 存储 介质 | ||
本发明实施例提供一种统计模型的训练方法、统计方法、装置及存储介质,包括:获取样本图片和用于表征所述样本图片中目标对象数量的真实值的标签;将所述样本图片输入到待训练统计模型,以获取所述样本图片的回归密度图;基于所述回归密度图,获取所述样本图片中目标对象数量的预测函数以及用于表征所述样本图片中每个像素点上否出现所述目标对象的回归函数;基于所述预测函数、所述样本图片中目标对象数量的真实值、所述回归函数以及预设规则,更新所述待训练统计模型的网络参数。本发明实施例能够减少标记的难度,具有更广泛的适应能力。
技术领域
本发明涉及图像处理领域,具体而言,涉及一种统计模型的训练方法、统计方法、装置及存储介质。
背景技术
密度图:密度图(Density Map)又称密度分布图,是一种二维空间图,也是表示目标对象分布情况的一种主要工具。密度图由一系列不同的值表示人群分布的情况,没有人的密度点处值为0,有人的密度点处值为非0值。通过对密度图求和,便可以得到原来图像中的人的数量。
为了防止踩踏事故悲剧的再次发生,有必要对公共场合的行人数目进行实时监控,方便相关工作人员及时获得行人数量信息,当行人数目过多时以采取相关措施,以防止踩踏事件的发生。
行人检测方法—基于目标检测的方法。利用特征提取的对视频图像中的行人进行检测,从而获取行人的数量。然而,该方案无法解决人头遮挡问题,并且对于视角误差无法及时反映,比如说距离摄像头较远的目标显示得很小,而距离摄像头较近的目标显示得比较大,速度较慢。
基于密度图的回归方法。通过(Multi-Column Convolutional Neural Network,MCNN)多柱卷积神经网络提取相关的上下文信息,可以减少视觉误差的影响,联立回归出行人数目,从而提高回归质量。然而,该方案标注数据集难度较大,并且很容易标注出错,从而影响人群预测质量。
发明内容
鉴于此,本发明实施例的目的在于提供一种统计模型的训练方法、统计方法、装置及存储介质,以缓解上述问题。
第一方面,本发明实施例提供一种统计模型的训练方法,所述方法包括:获取样本图片和用于表征所述样本图片中目标对象数量的真实值的标签;将所述样本图片输入到待训练统计模型,以获取所述样本图片的回归密度图;基于所述回归密度图,获取所述样本图片中目标对象数量的预测函数以及用于表征所述样本图片中每个像素点上否出现所述目标对象的回归函数;基于所述预测函数、所述样本图片中目标对象数量的真实值、所述回归函数以及预设规则,更新所述待训练统计模型的网络参数。
第二方面,本发明实施例提供一种统计方法,获取待检测的图片;将所述待检测图片输入到上述统计模型,获取与所述待检测图片对应的密度图;基于所述密度图,计算所述待检测图片中目标对象的数量。
第三方面,本发明实施例提供一种统计模型的训练装置,所述装置包括:第一获取模块,用于获取样本图片和用于表征所述样本图片中目标对象数量的真实值的标签;第一输入模块,用于将所述样本图片输入到待训练统计模型,以获取所述样本图片的回归密度图;函数获取模块,用于基于所述回归密度图,获取所述样本图片中目标对象数量的预测函数以及用于表征所述样本图片中每个像素点上否出现所述目标对象的回归函数;更新模块,用于基于所述预测函数、所述样本图片中目标对象数量的真实值、所述回归函数以及预设规则,更新所述待训练统计模型的网络参数。
第四方面,本发明实施例提供一种统计装置,第二获取模块,用于获取待检测的图片;第二输入模块,用于将所述待检测图片输入到上述统计模型,获取与所述待检测图片对应的密度图;计算模块,用于基于所述密度图,计算所述待检测图片中目标对象的数量。
第五方面,本发明实施例提供一种存储介质,所述存储介质中存储有计算机程序,当所述计算机程序在计算机上运行时,使得所述计算机执行第一方面和第二方面所述的方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川大学,未经四川大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811322334.5/2.html,转载请声明来源钻瓜专利网。