[发明专利]基于多帧图片的目标检测方法、装置及存储介质在审
申请号: | 202010951616.2 | 申请日: | 2020-09-11 |
公开(公告)号: | CN112070036A | 公开(公告)日: | 2020-12-11 |
发明(设计)人: | 张林萌;曹侃 | 申请(专利权)人: | 联通物联网有限责任公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 北京同立钧成知识产权代理有限公司 11205 | 代理人: | 梁瑜;刘芳 |
地址: | 210006 江苏省南京*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 图片 目标 检测 方法 装置 存储 介质 | ||
1.一种基于多帧图片的目标检测方法,其特征在于,包括:
获取待处理的多帧图片;
对所述多帧图片中的第一帧图片进行目标检测,确定目标检测区域,所述目标检测区域内包括检测目标;
根据所述目标检测区域,依次对所述多帧图片中剩余图片通过基于网格和贡献度的改进多密度对噪声鲁棒的空间聚类算法CGDBSCAN进行目标检测,并根据所述剩余图片中每帧图片对应的目标检测结果,依次对目标检测区域进行更新,直至所述剩余图片的最后一帧图片完成目标检测;
输出所述多帧图片对应的检测目标。
2.根据权利要求1所述的方法,其特征在于,根据所述目标检测区域,依次对所述多帧图片中剩余图片通过基于网格和贡献度的改进多密度对噪声鲁棒的空间聚类算法进行目标检测,包括:
获取预设的图片序列;
按照所述图片序列,读取所述剩余图片中的多个图片组,其中,所述图片组中包括预设帧数的图片;
根据所述目标检测区域,通过基于网格和贡献度的改进多密度对噪声鲁棒的空间聚类算法对各所述图片组中的各帧所述图片进行目标检测。
3.根据权利要求2所述的方法,其特征在于,根据所述目标检测区域,通过基于网格和贡献度的改进多密度对噪声鲁棒的空间聚类算法对各所述图片组中的各帧所述图片进行目标检测,包括:
获取所述目标检测区域的中心点位置;
以中心点位置为中心,构建多个检测区域逐渐扩大的待检测区域;
从检测区域最小的待检测区域开始,依次通过基于网格和贡献度的改进多密度对噪声鲁棒的空间聚类算法对各所述图片组中的各帧所述图片进行目标检测,直至检测到所述检测目标。
4.根据权利要求3所述的方法,其特征在于,依次通过基于网格和贡献度的改进多密度对噪声鲁棒的空间聚类算法对各所述图片组中的各帧所述图片进行目标检测,包括:
通过基于网格和贡献度的改进多密度对噪声鲁棒的空间聚类算法依次对所述多个待检测区域进行聚类分析,获得聚类分析结果;
确定所述聚类分析结果和所述检测目标的匹配度;
若所述匹配度大于或等于预设匹配度阈值,则确定所述待检测区域内存在所述检测目标;若所述匹配度小于所述预设匹配度阈值,则对下一个较大的待检测区域进行检测,直至检测到所述检测目标。
5.根据权利要求1-4任一项所述的方法,其特征在于,目标检测结果中包括检测目标的位置信息,根据所述剩余图片对应的目标检测结果,依次对检测区域进行更新,包括:
依次获取所述剩余图片对应的所述位置信息;
根据所述位置,依次对所述检测区域进行更新。
6.根据权利要求1-4任一项所述的方法,其特征在于,在对所述多帧图片中的第一帧图片进行目标检测,确定目标检测区域之后,还包括:
根据对所述多帧图片中的第一帧图片进行目标检测的结果,对所述多帧图片中剩余图片进行抽样,以降低所述剩余图片的数量。
7.根据权利要求6所述的方法,其特征在于,根据对所述多帧图片中的第一帧图片进行目标检测的结果,对所述多帧图片中剩余图片进行抽样,包括:
获取所述检测目标的置信度;
根据预设的映射关系,确定所述置信度对应的抽样系数;
根据所述抽样系数对所述多帧图片中剩余图片进行抽样。
8.一种基于视频流的目标检测装置,其特征在于,所述装置包括:
获取模块,用于获取待处理的多帧图片;
第一检测模块,用于对所述多帧图片中的第一帧图片进行目标检测,确定目标检测区域,所述目标检测区域内包括检测目标;
第二检测模块,用于根据所述目标检测区域,依次对所述多帧图片中剩余图片通过基于网格和贡献度的改进多密度对噪声鲁棒的空间聚类算法进行目标检测,并根据所述剩余图片中每帧图片对应的目标检测结果,依次对目标检测区域进行更新,直至所述剩余图片的最后一帧图片完成目标检测;
输出模块,用于输出所述多帧图片对应的检测目标。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于联通物联网有限责任公司,未经联通物联网有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010951616.2/1.html,转载请声明来源钻瓜专利网。