[发明专利]一种自动提取交通视频中交通事故关键帧的方法在审
申请号: | 201910346106.X | 申请日: | 2019-04-26 |
公开(公告)号: | CN110334574A | 公开(公告)日: | 2019-10-15 |
发明(设计)人: | 王宇宁;杨勇;蒋海洋;鲁茂强;胡阳阳;杜慧铭 | 申请(专利权)人: | 武汉理工大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04 |
代理公司: | 湖北武汉永嘉专利代理有限公司 42102 | 代理人: | 徐员兰;乐综胜 |
地址: | 430070 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 交通事故 交通视频 自动提取 关键帧 第一次检测 关键帧信息 图片 标注信息 快速识别 神经网络 时间顺序 视频输出 图片输入 图片转换 分解 | ||
1.一种自动提取交通视频中交通事故关键帧的方法,其特征在于,包括以下步骤:
S1,将交通视频分解成图片,并按照时间顺序进行标记;
S2,将标记的图片输入到经过训练的SSD神经网络中,识别出交通事故图片;
S3,以第一次检测出有交通事故图片的标注信息为节点,提取前后一段时间的图片,并将图片转换成视频输出。
2.根据权利要求1所述的自动提取交通视频中交通事故关键帧的方法,其特征在于,所述的步骤S2之前,通过收集交通视频下的交通事故图片组成数据集,用数据集对SSD神经网络进行训练,训练完成后的SSD神经网络得到用于识别交通事故的模型。
3.根据权利要求2所述的自动提取交通视频中交通事故关键帧的方法,其特征在于,通过收集交通视频下的交通事故图片组成数据集对SSD神经网络进行训练的具体过程,包括以下步骤:
S1-1,对数据集中的一个交通事故图片中的交通事故区域人工截取一个真实框;
S1-2,通过SSD神经网络将交通事故图片分解成多个层级的特征图;
S1-3,将每个层级的特征图分割成多个默认框;
S1-4,将默认框和真实框的参数值依次输入至SSD神经网络的损失函数中,得到相应的损失值;
S1-5,在数据集中选取新的交通事故图片,重复步骤S1-1~S1-4,完成所有数据集中的交通事故图片对SSD神经网络的输入训练或直至损失值降低至指定值,使SSD神经网络形成用于识别交通事故的模型。
4.根据权利要求3所述的自动提取交通视频中交通事故关键帧的方法,其特征在于,所述的步骤S1-2中,SSD神经网络包括多个卷积层,交通事故图片经过多个层级的卷积层转换处理,每经过一个卷积层处理后得到一个层级特征图,每个卷积层通过Relu激活函数将上一层级的特征图转为下一层级的特征图;
Relu激活函数为:
f(x)=max(0,x)(1)
公式(1)中x代表上一层级的神经元,f(x)代表下一层级的神经元。
5.根据权利要求3所述的自动提取交通视频中交通事故关键帧的方法,其特征在于,所述的步骤S1-4中,损失函数为:
公式(2)中x代表上一层级的神经元,c表示置信度,l为默认框的坐标,g为真实框的坐标,N是默认框与真实框匹配的数量,α为权值.
公式(3)中x代表上一层的神经元,c表示置信度,i表示第i个默认框,i∈Pos表示第i个默认框属于正样本,i∈Neg表示第i个默认框属于负样本,j表示第j个真实框,表示第i个默认框与类别P的第j个真实框相匹配的重合度,时表示第i个默认框与类别P的第j个真实框相匹配,若不匹配的话,则N表示默认框的正样本数量,表示第i个默认框是背景的概率,p指类别序号,p=0表示背景;
公式(4)中表示第i个默认框对应类别p的预测概率;
公式(5)中,N是默认框与真实框匹配的数量,i∈Pos表示第i个默认框属于正样本,(cx,cy)为补偿后的默认框的中心坐标,(w,h)为默认框的宽和高,i为默认框序号,j为真实框序号,m∈(cx,cy,w,h)中m表示以此取cx、cy、w、h四个值进行计算,表示第i个默认框的预测坐标偏移量,表示第j个真实框的实际坐标偏移量,表示第i个默认框与类别k的第j个真实框相匹配的重合度,时表示第i个默认框与类别k的第j个真实框相匹配,若不匹配的话,则
式中x代表上一层的神经元,α为权值。
6.根据权利要求5所述的自动提取交通视频中交通事故关键帧的方法,其特征在于,默认框与真实框的匹配原则为:IoU大于设定阈值即认为相应默认框与真实框相匹配,
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉理工大学,未经武汉理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910346106.X/1.html,转载请声明来源钻瓜专利网。