[发明专利]道路区域标定方法及电子设备在审
申请号: | 202111006532.2 | 申请日: | 2021-08-30 |
公开(公告)号: | CN113763425A | 公开(公告)日: | 2021-12-07 |
发明(设计)人: | 姜东昕;赵建龙;臧海洋 | 申请(专利权)人: | 青岛海信网络科技股份有限公司 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/277;G06K9/00;G06K9/62 |
代理公司: | 北京同达信恒知识产权代理有限公司 11291 | 代理人: | 李琴 |
地址: | 266071 山东省青岛市崂*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 道路 区域 标定 方法 电子设备 | ||
1.一种道路区域标定方法,其特征在于,所述方法包括:
针对道路视频中指定时长内的任意一帧视频图像,利用预设的目标检测神经网络模型对所述视频图像进行车辆目标检测,得到各目标车辆的检测位置;
基于各目标车辆的检测位置对各目标车辆进行识别,得到各目标车辆的标识,其中,不同视频图像中同一目标车辆的标识相同;
针对任意一个目标车辆,通过所述指定时长内各帧视频图像中所述目标车辆的标识和检测位置,确定所述目标车辆在道路中的运动轨迹;
根据各目标车辆在所述道路中的运动轨迹,确定所述道路中的车辆密集区域。
2.根据权利要求1所述的方法,其特征在于,所述目标检测神经网络模型的主干网络中至少一个目标卷积的扩张率为设定值的空洞卷积,且所述目标卷积为指定大小的卷积。
3.根据权利要求1所述的方法,其特征在于,所述基于各目标车辆的检测位置对各目标车辆进行识别,得到各目标车辆的标识,包括:
针对任意一个目标车辆,通过匈牙利算法将所述目标车辆的检测位置分别与各目标车辆的预测位置进行匹配,确定与所述目标车辆的检测位置相对应的预测位置;其中,所述各目标车辆的预测位置是利用卡尔曼滤波算法对上一帧视频图像中的各目标车辆的检测位置进行预测得到的;
若确定与所述目标车辆的检测位置相对应的预测位置的数量为一个,则将与所述预测位置对应的上一帧视频图像中目标车辆的标识确定为所述目标车辆的标识;
若确定与所述目标车辆的检测位置相对应的预测位置的数量为多个,则基于各预测位置对应的级联匹配参数确定出优先级最高的预测位置,并将优先级最高的预测位置对应的上一帧视频图像中目标车辆的标识确定为所述目标车辆的标识,其中,所述级联匹配参数是用于表示预测位置的优先级。
4.根据权利要求3所述的方法,其特征在于,所述针对任意一个目标车辆,通过匈牙利算法将所述目标车辆的检测位置分别与各目标车辆的预测位置进行匹配,确定与所述目标车辆的检测位置相对应的预测位置之前,所述方法还包括:
针对检测位置数量为多个的各目标车辆,基于预设算法对各目标车辆的检测位置进行筛选,得到筛选后的各目标车辆的检测位置。
5.根据权利要求4所述的方法,其特征在于,所述基于预设算法对各目标车辆的检测位置进行筛选,得到筛选后的各目标车辆的检测位置,包括:
利用非极大值抑制算法对各目标车辆的检测位置进行筛选之后,通过各目标车辆的检测位置的置信度对各目标车辆的检测位置再次进行筛选,得到筛选后的各目标车辆的检测位置;其中,所述各目标车辆的检测位置的置信度是基于预设的目标检测神经网络模型得到的。
6.根据权利要求1~5任一所述的方法,其特征在于,所述根据各目标车辆在所述道路中的运动轨迹,确定所述道路中的车辆密集区域,包括:
将各目标车辆的运动轨迹分别划分成指定数量的子运动轨迹,其中同一运动轨迹中的各子运动轨迹的长度相等;
利用预设的聚类算法对各子运动轨迹进行聚类,得到多个运动轨迹聚类区域;
针对任意一个运动轨迹聚类区域,若确定所述运动轨迹聚类区域中各子运动轨迹的数量大于指定阈值,则确定所述运动轨迹聚类区域为所述道路中的车辆密集区域。
7.一种电子设备,其特征在于,包括存储单元和处理器,其中:
所述存储单元,被配置为存储道路视频;
所述处理器,被配置为:
针对道路视频中指定时长内的任意一帧视频图像,利用预设的目标检测神经网络模型对所述视频图像进行车辆目标检测,得到各目标车辆的检测位置;
基于各目标车辆的检测位置对各目标车辆进行识别,得到各目标车辆的标识,其中,不同视频图像中同一目标车辆的标识相同;
针对任意一个目标车辆,通过所述指定时长内各帧视频图像中所述目标车辆的标识和检测位置,确定所述目标车辆在道路中的运动轨迹;
根据各目标车辆在所述道路中的运动轨迹,确定所述道路中的车辆密集区域。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于青岛海信网络科技股份有限公司,未经青岛海信网络科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111006532.2/1.html,转载请声明来源钻瓜专利网。