[发明专利]基于DCNN目标识别的车辆鸣笛监测方法及系统在审
申请号: | 201710713579.X | 申请日: | 2017-08-18 |
公开(公告)号: | CN109409353A | 公开(公告)日: | 2019-03-01 |
发明(设计)人: | 魏敦楷;李宏斌;邱国庆;梁冉 | 申请(专利权)人: | 上海其高电子科技有限公司 |
主分类号: | G06K9/32 | 分类号: | G06K9/32;G06N3/04 |
代理公司: | 上海交达专利事务所 31201 | 代理人: | 王毓理;王锡麟 |
地址: | 200090 上海市*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视频流 声压 采集处理装置 感兴趣区域 麦克风阵列 车辆鸣笛 高清图像 目标识别 鸣笛声 静态图像提取 波束成型 高效可靠 静态图像 实时采集 信号采用 误判 重叠率 监测 覆盖 算法 叠加 输出 | ||
1.一种基于深度卷积神经网络目标识别的车辆鸣笛监测方法,其特征在于,通过实时鸣笛识别监测得到鸣笛发生时刻的声压云图,并在该时刻同步采集低解析度的视频流以及高解析度的静态图像;然后分别将声压云图与视频流叠加处理、采用深度卷积神经网络对静态图像进行识别并获得其中所有对象的感兴趣区域;再通过低解析度视频-高解析度图像之间的单帧配准处理得到图像坐标投影关系,得到投影到静态图像上的声压覆盖范围;最后通过比对感兴趣区域和声压覆盖范围,以重叠率最高的对象判定为鸣笛对象。
2.根据权利要求1所述的方法,其特征是,所述的单帧配准处理是指:控制单元运行配准程序,配准程序自动采集同一时刻来自低分辨率摄像头和高清摄像头的两帧图像,进行配准,得到两帧图像中至少五个特征匹配控制点,计算出从低分辨率摄像头到高清摄像头的坐标投影关系。
3.根据权利要求1所述的方法,其特征是,所述的声压云图,通过对麦克风阵列采集的声信号进行实时鸣笛识别,当判定鸣笛发生,则采用波束成型算法进行实时声源定位,生成包含鸣笛声源坐标的声压云图。
4.根据权利要求3所述的方法,其特征是,所述的波束成型算法具体为:其中:V(k,w)为波数成型的均方值,k为为聚焦方向,w为角频率,M为传感器数量,Cnm为m号传声器接收声压信号相对于n号传声器接收声压信号的互谱,rm为m号传声器的坐标向量,rn为n号传声器的坐标向量。
5.根据权利要求1所述的方法,其特征是,所述的感兴趣区域,通过预先训练好的深度卷积神经网络算法识别画面中的移动目标的类型,并给出各移动目标在画面中的感兴趣区域。
6.根据权利要求5所述的方法,其特征是,当目标为机动车辆时进一步识别其车牌信息。
7.根据权利要求1或5所述的方法,其特征是,所述的深度卷积神经网络,采用SSD目标检测神经网络,其训练采用基于深度学习的SSD目标识别算法,将图像离散为不同特征图点上生成的不同大小和宽高比的一组默认框,对每个默认框就不同种类物体的匹配进行打分,并且计算对边框的调整以更好的匹配物体的形状。
8.根据权利要求5所述的方法,其特征是,所述的训练,其目标函数由定位损失函数和置信度损失函数组成,即:其中:N为匹配的默认框的个数,N为0时损失函数值为0,α通过交叉验证设置为1;x为是否匹配,即采用表征第i个默认框与第j个标准图框在p类别是否匹配,c为置信度,l为预测框,g为标准图,Lloc(x,l,g)为定位损失函数,Lconf(x,c)为置信度损失函数。
9.根据权利要求8所述的方法,其特征是,所述的定位损失函数是指:预测框l与标准图g之间的光滑损失L1:其中:
其中:(cx,cy)为默认框的中心,w为默认框的宽度,h为默认框的高度,d为默认框。函数回归为对默认框的中心及其宽和高的补偿;所述的置信度损失函数Lconf(x,c)是各类别置信度c的softmax损失:其中
10.一种基于深度卷积神经网络目标识别的车辆鸣笛取证系统,其特征在于,包括:控制单元、麦克风阵列和高清图像采集处理装置,其中:麦克风阵列和高清图像采集处理装置分别实时采集鸣笛声信号、视频流和静态图像并输出至控制单元,控制单元根据鸣笛声信号采用波束成型算法得到声压云图并与视频流进行叠加,得到带有声压覆盖范围的视频流,并根据静态图像提取出其中所有目标的感兴趣区域;最后根据声压覆盖范围和感兴趣区域进行重叠率计算,并进一步提取出目标中的号牌信息。
11.根据权利要求10所述的系统,其特征是,所述的麦克风阵列包括:外壳以及设置于外壳内的传感器板、低分辨率摄像头、数字信号采集模块和接口模块。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海其高电子科技有限公司,未经上海其高电子科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710713579.X/1.html,转载请声明来源钻瓜专利网。