[发明专利]路况检测方法、装置、电子设备及可读存储介质在审
申请号: | 202010530074.1 | 申请日: | 2020-06-11 |
公开(公告)号: | CN111695627A | 公开(公告)日: | 2020-09-22 |
发明(设计)人: | 阳勇 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G01C21/28;G01C21/34;G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 北京市立方律师事务所 11330 | 代理人: | 张筱宁 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 路况 检测 方法 装置 电子设备 可读 存储 介质 | ||
1.一种路况检测方法,其特征在于,包括:
接收来自视频采集设备的路况视频;
从所述路况视频中提取多个视频帧图像,并基于多个视频帧图像获取多个光流密度图像;
其中,所述光流密度图像用于表示视频帧图像中的各个像素点相对于物体运动所形成的动态信息;
分别对所述多个视频帧图像和多个光流密度图像进行分类,基于视频帧图像和光流密度图像分类确定路况结果。
2.根据权利要求1所述的路况检测方法,其特征在于,所述接收来自视频采集设备的路况视频之前,还包括:
获取车辆的定位信息,基于所获取的定位信息确定所述车辆的行驶信息;所述行驶信息包括所述车辆的实时位置和行驶速度中的至少一种;
若所述车辆的行驶信息符合预设条件,则发送视频采集指令到所述视频采集设备;
所述接收来自视频采集设备的路况视频,包括:
接收视频采集设备响应于所述视频采集指令发送的路况视频。
3.根据权利要求1所述的路况检测方法,其特征在于,所述基于多个视频帧图像获取多个光流密度图像,包括:
针对所述多个视频帧图像中任意两帧相邻的视频帧图像,分别获取相邻的两帧视频帧图像中每一像素的运动速度和运动方向;
基于相邻的两帧视频帧图像中每一像素的运动速度和运动方向,确定与所述两帧图像视频帧图像对应的光流密度图像。
4.根据权利要求1所述的路况检测方法,其特征在于,所述分别对所述多个视频帧图像和多个光流密度图像进行分类,基于视频帧图像和光流密度图像分类确定路况结果,包括:
基于多个视频帧图像获取图像特征序列,并基于多个光流密度图像获取光流密度特征序列;
对所述图像特征序列进行分类,得到第一分类概率;
对所述光流密度特征序列进行分类,得到第二分类概率;
基于所述第一分类概率和所述第二分类概率,确定所述路况结果;所述路况结果包括畅通、缓行和拥堵中的任一种。
5.根据权利要求4所述的路况检测方法,其特征在于,所述基于多个视频帧图像获取图像特征序列,并基于多个光流密度图像获取光流密度特征序列,包括:
提取多个视频帧图像中每一视频帧图像的第一图像特征,并基于多个视频帧图像的时间顺序将多个第一图像特征依次拼接,得到所述图像特征序列;
提取多个光流密度图像中每一光流密度图像的第二图像特征,并基于多个光流密度图像的时间顺序将多个第二图像特征依次拼接,得到所述光流密度特征序列。
6.根据权利要求5所述的路况检测方法,其特征在于,所述提取多个视频帧图像中每一视频帧图像的第一图像特征,包括:
针对多个视频帧图像中的每一视频帧图像,将所述视频帧图像输入到卷积神经网络中;
将所述卷积神经网络的分类层的输入特征作为所述第一图像特征。
7.根据权利要求4所述的路况检测方法,其特征在于,所述对所述图像特征序列进行分类,得到第一分类概率;对所述光流密度特征序列进行分类,得到第二分类概率,包括:
将所述图像特征序列输入第一分类模型,得到对应的一个第一分类概率;
将所述光流密度特征序列输入第二分类模型,得到对应的一个第二分类概率。
8.根据权利要求7所述的路况检测方法,其特征在于,所述基于所述第一分类概率和所述第二分类概率,确定所述路况结果,包括:
基于所述第一分类概率和所述第二分类概率,确定路况概率;
确定所述路况概率所在的数值区间范围,确定与所述数值区间范围对应的路况结果。
9.根据权利要求4所述的路况检测方法,其特征在于,所述对所述图像特征序列进行分类,得到第一分类概率;对所述光流密度特征序列进行分类,得到第二分类概率,包括:
将所述图像特征序列输入第一分类模型,得到多个候选路况分别对应的第一分类概率;
将所述光流密度特征序列输入第二分类模型,得到多个候选路况分别对应的第二分类概率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010530074.1/1.html,转载请声明来源钻瓜专利网。