[发明专利]一种基于视频的危险驾驶行为检测方法和检测系统有效
申请号: | 202110286443.1 | 申请日: | 2021-03-17 |
公开(公告)号: | CN112906631B | 公开(公告)日: | 2022-07-29 |
发明(设计)人: | 宋建新;汪兴伟 | 申请(专利权)人: | 南京邮电大学 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V10/25;G06V10/774;G06V10/80;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 南京苏高专利商标事务所(普通合伙) 32204 | 代理人: | 常虹 |
地址: | 210003 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 视频 危险 驾驶 行为 检测 方法 系统 | ||
1.一种基于视频的危险驾驶行为检测方法,所述视频为驾驶员驾驶时的视频;所述方法包括构建阶段、训练阶段和检测阶段,其特征在于,所述构建阶段包括:
S1、采集视频帧,构成待检测视频片段;所述待检测视频片段为长度为T的驾驶员驾驶时的视频图像序列V,V=[v1,v2,…,vt,…vT],其中vt∈Rw×h×c,表示视频图像序列中的第t帧图像,w、h分别为视频图像的宽和高,c表示图像色彩空间的通道数;
S2、对S1得到的待检测视频片段,计算相邻帧的光流,构成光流图序列F=[f1,f2,…,ft,…fT],其中ft∈Rw×h×2L,L为光流算法相关的特征通道数;
S3、将视频图像序列V中的每帧图像划分为K×K个子区域,采用空间2D卷积神经网络提取V中每帧图像每个子区域的空间特征FS(t,k),组合得到视频图像序列对应的空间特征:FS=[FS(1),FS(2),…,FS(t),…,FS(T)],其中FS(t)表示视频图像序列中的第t帧图像的空间特征,FS(t)=[FS(t,1),FS(t,2),…,FS(t,k),…,FS(t,K2)],L1为空间特征的长度;k表示视频图像中子区域的序号,k=1,2,…,K2;每帧空间特征图的宽、高均为K1;
S4、采用时间2D卷积神经网络提取光流图序列F对应的时间特征FM:FM=[FM(1),FM(2),…,FM(t),…,FM(T)],其中FM(t)表示视频图像序列中的第t帧图像的时间特征图,每帧时间特征图的宽、高均为K2,L2为时间特征的长度;
S5、对视频图像序列的每帧图像提取驾驶员轮廓,所述轮廓和轮廓内部区域设定为驾驶员区域Dt;统计第t帧图像中与Dt交集不为空的子区域个数Nt;计算每个子区域的驾驶员区域权重,第t帧图像第k个子区域的驾驶员区域权重Dω(t,k)为:
S6、建立基于LSTM的空间注意力模型,所述空间注意力模型用于提取每帧图像每个子区域的空间权重所述空间注意力模型中,输入门、遗忘门、输出门的输入均为第t帧图像第k个子区域的特征FS(t,k)和上一帧LSTM细胞隐藏状态LSTM的输出细胞状态为即:
其中Wα,Wαf,Wαh分别为空间注意力模型中输出门、遗忘门、输入门的权重矩阵,bα1,bα2分别为空间注意力模型的输入门和输出门的偏置项;
S7、建立基于LSTM的时间注意力模型,所述时间注意力模型用于提取每帧图像的时间权重所述时间注意力模型中,输入门、遗忘门、输出门的输入均为第t帧图像的时间特征FM(t)和上一帧LSTM细胞隐藏状态LSTM的输出细胞状态为即:
其中Wβ,Wβf,Wβh分别为时间注意力模型中输出门、遗忘门、输入门的权重矩阵,bβ1,bβ2分别为时间注意力模型的输入门和输出门的偏置项;
S8、计算各子区间归一化空间权重
对视频图像序列V中的T帧图像,更新每一帧图像的归一化空间权重,所述更新过程为最小化第一损失函数LossD:更新后的归一化空间权重为αw(t,k);
计算视频图像序列中每帧图像的显著性空间特征St:
St=[αw(t,1)FS(t,1),…,αw(t,k)FS(t,k),…,αw(t,K2)FS(t,K2)],
[,]表示向量拼接;
S9、计算各帧图像归一化时间权重βw(t):
计算视频图像序列中每帧图像的显著性时间特征Mt:
Mt=βw(t)FM(t),
S10、建立基于三级ConvLSTM级联的深度空间特征提取网络,所述深度空间特征提取网络的输入为显著性空间特征St,输出为St对应的第一危险驾驶行为概率向量;
所述深度空间特征提取网络包括三级级联的ConvLSTM单元和输出层;其中第一级ConvLSTM单元的输入为显著性空间特征St,第二级ConvLSTM单元的输入为第一级ConvLSTM单元的输出第三级ConvLSTM单元的输入为第二级ConvLSTM单元的输出三级ConvLSTM单元的输出拼接为深度空间特征
所述输出层采用Softmax函数根据获取第t帧图像的第一危险驾驶行为概率向量PtS:其中是第t帧图像为第n类危险驾驶行为的概率,其中T表示矩阵的转置,ωn为输出层参数,n=1,2,…,N;
S11、建立基于三级ConvLSTM级联的深度时间特征提取网络,所述深度时间特征提取网络的输入为显著性时间特征Mt,输出为Mt对应的第二危险驾驶行为概率向量;
所述深度时间特征提取网络包括三级级联的ConvLSTM单元和输出层;其中第一级ConvLSTM单元的输入为显著性时间特征Mt,第二级ConvLSTM单元的输入为第一级ConvLSTM单元的输出第三级ConvLSTM单元的输入为第二级ConvLSTM单元的输出三级ConvLSTM单元的输出拼接为深度时间特征
所述输出层采用Softmax函数根据获取第t帧图像的第二危险驾驶行为概率向量PtM:其中是第t帧图像为第n类危险驾驶行为的概率,其中T表示矩阵的转置,υn为输出层参数,n=1,2,…,N;
所述训练阶段包括:
S12、构建数据集,并将其分为训练集和验证集;使用训练集和验证集训练空间注意力模型、时间注意力模型、深度空间特征提取网络和深度时间特征提取网络的参数;
所述检测阶段包括:
S13、采集驾驶员驾驶视频;连续读取T1帧图像构成预待测视频图像序列判断预待测视频图像序列中是否存在运动目标,若存在运动目标则继续读取T2帧视频图像与构成长度为T的待测视频图像序列Vd,并根据步骤S2的方法计算Vd对应的光流图序列Fd;如果中不存在运动目标,清空数据,重新读取T1帧视频图像;T1+T2=T;
根据步骤S3的方法获取Vd中每帧图像每个子区域的空间特征Fds(t,k);
根据步骤s4的方法获取Vd中每帧图像的时间特征FdM(t);
根据步骤S5的方法计算Vd中每帧图像每个子区域的驾驶员区域权重Ddω(t,k);
采用训练好的空间注意力模型计算Vd中每帧图像每个子区域的空间权重
采用训练好的时间注意力模型计算Vd中每帧图像的时间权重
根据步骤S8的方法计算Vd中每帧图像的显著性空间特征Sdt;
根据步骤S9的方法计算Vd中每帧图像的显著性时间特征Mdt;
将Sdt输入训练好的深度空间特征提取网络中,获取Sdt对应的第一危险驾驶行为概率向量
将Mdt输入训练好的深度时间特征提取网络中,获取Mdt对应的第二危险驾驶行为概率向量
计算融合空间时间的危险驾驶行为概率向量其中为:分别为和中的第n个元素;
根据获取危险驾驶行为类别检测结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110286443.1/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种列车车门控制网络通讯系统
- 下一篇:一种基于数据可视化的全自动茶叶生产线