[发明专利]一种基于行人轨迹检索的行人群体检测方法及系统在审
申请号: | 202210256807.6 | 申请日: | 2022-03-16 |
公开(公告)号: | CN114694093A | 公开(公告)日: | 2022-07-01 |
发明(设计)人: | 谢晓华;张鑫;赖剑煌 | 申请(专利权)人: | 中山大学 |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V10/40;G06V10/74;G06V10/762;G06V10/774;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 深圳市创富知识产权代理有限公司 44367 | 代理人: | 高冰 |
地址: | 510275 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 行人 轨迹 检索 群体 检测 方法 系统 | ||
本发明公开了一种基于行人轨迹检索的行人群体检测方法及系统,该方法包括:获取带标注的数据集并构建训练数据集;基于训练数据集对表观特征模型和时空模型进行训练,并整合得到行人时空轨迹模型;基于行人时空轨迹模型生成行人跨摄像头轨迹时空信息;基于行人跨摄像头轨迹时空信息对待测行人图像进行检测,输出行人群体检测结果。该系统包括:获取模块、训练模块、生成模块和输出模块。本发明通过构建行人时空轨迹模型,能够提升行人视频检索结果质量和行人群体检测结果质量。本发明作为一种基于行人轨迹检索的行人群体检测方法及系统,可广泛应用于计算机视觉技术领域。
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于行人轨迹检索的行人群体检测方法及系统。
背景技术
以往的监控摄像头应用采用的信息都是图像信息,而忽略了摄像头本身空间拓扑信息以及采集图像过程中存在的时空信息,现有的跨摄像头时空模型都是基于统计的方法或者基于先验概率模型的方法,基于统计的方法缺陷在于需要大量的数据计算摄像头对之间的时空概率,如果某个摄像头对之间没有数据,那么该摄像头对的时空概率就无法计算。基于先验概率模型的方法缺陷在于需要很多数据估计先验概率的参数,同时也没有很好的概率模型描述不同摄像头对的时空概率分布。
发明内容
为了解决上述技术问题,本发明的目的是提供一种基于行人轨迹检索的行人群体检测方法及系统,能够提升行人视频检索结果质量和行人群体检测结果质量。
本发明所采用的第一技术方案是:一种基于行人轨迹检索的行人群体检测方法,包括以下步骤:
获取带标注的数据集并构建训练数据集;
基于训练数据集对表观特征模型和时空模型进行训练,并整合得到行人时空轨迹模型;
基于行人时空轨迹模型生成行人跨摄像头轨迹时空信息;
基于行人跨摄像头轨迹时空信息对待测行人图像进行检测,输出行人群体检测结果。
进一步,所述获取带标注的数据集并构建训练数据集这一步骤,其具体包括:
通过网络摄像头获取数据集,对数据集进行标注处理,得到带标注的数据集;
基于带标注的数据集构建训练数据集,将训练数据集划分为带标注的单摄像头行人图像信息和带标注的单摄像头行人轨迹信息。
进一步,所述基于训练数据集对表观特征模型和时空模型进行训练,并整合得到行人时空轨迹模型这一步骤,其具体包括:
基于带标注的单摄像头行人图像信息对表观特征模型进行训练和带标注的单摄像头行人轨迹信息对时空模型进行训练,得到优化的表观特征模型和优化的时空模型;
整合优化的表观特征模型和优化的时空模型,得到行人时空轨迹模型。
进一步,所述基于带标注的单摄像头行人图像信息对表观特征模型进行训练和带标注的单摄像头行人轨迹信息对时空模型进行训练,得到优化的表观特征模型和优化的时空模型这一步骤,其具体包括:
基于表观特征模型,对带标注的单摄像头行人图像信息进行特征提取处理,得到带标注的单摄像头行人图像特征信息,所述表观特征模型由卷积神经网络构成;
通过三元组损失函数和梯度下降算法分别对带标注的单摄像头行人图像特征信息进行计算,得到带标注的单摄像头行人图像优化信息;
基于带标注的单摄像头行人图像优化信息对表观特征模型进行优化处理,得到优化的表观特征模型;
基于时空模型,通过交叉熵损失函数和梯度下降算法分别对带标注的单摄像头行人轨迹信息进行计算,得到带标注的单摄像头行人轨迹优化信息;
基于带标注的单摄像头行人轨迹优化信息对时空模型进行优化处理,得到优化的时空模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210256807.6/2.html,转载请声明来源钻瓜专利网。