[发明专利]目标检测方法、设备和存储介质在审
申请号: | 202211240682.4 | 申请日: | 2022-10-11 |
公开(公告)号: | CN115909126A | 公开(公告)日: | 2023-04-04 |
发明(设计)人: | 李晨阳;何俊彦;蓝劲鹏;罗斌;耿益锋 | 申请(专利权)人: | 阿里巴巴(中国)有限公司 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V20/56;G06V10/62;G06V10/764;G06V10/766;G06V10/80;G06V10/82 |
代理公司: | 北京太合九思知识产权代理有限公司 11610 | 代理人: | 孙明子 |
地址: | 310023 浙江省杭州市余杭*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标 检测 方法 设备 存储 介质 | ||
1.一种目标检测方法,其特征在于,包括:
在实时采集的视频流中获取当前采样时刻对应的当前帧图像,所述当前帧图像中包含目标对象;
以第一采样间隔倍数获取第一数量的历史帧图像以得到第一图像集;以及,以第二采样间隔倍数获取第二数量的历史帧图像以得到第二图像集;其中,所述第一采样间隔倍数小于所述第二采样间隔倍数,所述第一数量小于所述第二数量,所述第一图像集和所述第二图像集中均包含所述当前帧图像;
提取所述第一图像集中多帧图像各自对应的特征图,以及提取所述第二图像集中多帧图像各自对应的特征图;
根据所述第一图像集中多帧图像各自对应的特征图和所述第二图像集中多帧图像各自对应的特征图,预测出所述目标对象在下一帧图像中的位置信息。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一图像集中多帧图像各自对应的特征图和所述第二图像集中多帧图像各自对应的特征图,预测出所述目标对象在下一帧图像中的位置信息,包括:
融合所述第一图像集中多帧图像各自对应的特征图和所述第二图像集中多帧图像各自对应的特征图;
根据融合后的特征图预测出所述目标对象在下一帧图像中的位置信息。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
若确定所述目标对象在下一帧图像中的位置信息满足设定告警条件,则触发与所述告警条件对应的避险操作。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述视频流对应的产生环境信息,确定所述第一采样间隔倍数和所述第二采样间隔倍数。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据已获得的所述目标对象的多个位置信息预测结果,确定所述目标对象的移动速度;
根据所述目标对象的移动速度调整所述第一采样间隔倍数和所述第二采样间隔倍数。
6.根据权利要求1所述的方法,其特征在于,用于预测目标对象在下一帧图像中的位置信息的目标检测模型的训练过程包括:
获取训练样本视频中采样出的多帧样本图像,其中,每帧样本图像中标记有目标对象的类别和位置信息;
设置用于模拟目标对象的目标速度变化情形的第一组采样间隔倍数和第二组采样间隔倍数;
针对所述多帧样本图像中的第一样本图像,分别以所述第一组采样间隔倍数和所述第二组采样间隔倍数构建第一样本组和第二样本组,并确定所述第一样本组和所述第二样本组各自对应的选中概率取值范围和预测参考图像;其中,每组采样间隔倍数中包括用于获取第一数量的历史样本图像的第三采样间隔倍数以及用于获取第二数量的历史样本图像的第四采样间隔倍数,所述第一组采样间隔倍数和所述第二组采样间隔倍数中各自包含的第三采样间隔倍数和第四采样间隔倍数的取值不同;
生成随机数,并根据所述随机数与所述第一样本组和所述第二样本组各自对应的选中概率取值范围之间的归属关系,确定所述第一样本组和所述第二样本组中的目标样本组;
使用所述目标样本组及其对应的预测参考图像,对与所述目标速度变形情形对应的目标检测模型进行训练;所述目标检测模型为神经网络模型。
7.根据权利要求6所述的方法,其特征在于,所述设置用于模拟目标对象的目标速度变化情形的第一组采样间隔倍数和第二组采样间隔倍数,包括:
设置所述第一组采样间隔倍数中包含的第三采样间隔倍数小于所述第二组采样间隔倍数中包含的第三采样间隔倍数,所述第一组采样间隔倍数中包含的第四采样间隔倍数小于所述第二组采样间隔倍数中包含的第四采样间隔倍数;
确定所述第一样本组和所述第二样本组各自对应的预测参考图像,包括:
根据所述目标速度变化情形确定所述第一样本组和所述第二样本组各自对应的预测参考图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于阿里巴巴(中国)有限公司,未经阿里巴巴(中国)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211240682.4/1.html,转载请声明来源钻瓜专利网。