[发明专利]基于深度学习目标检测与动态背景建模的商店跨门经营检测方法有效
申请号: | 201810619324.1 | 申请日: | 2018-06-15 |
公开(公告)号: | CN108985169B | 公开(公告)日: | 2020-12-11 |
发明(设计)人: | 陈晋音;龚鑫;李玉玮;泮安涛 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 杭州天勤知识产权代理有限公司 33224 | 代理人: | 曹兆霞 |
地址: | 310014 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 目标 检测 动态 背景 建模 商店 经营 方法 | ||
1.一种基于深度学习目标检测与动态背景建模的商店跨门经营检测方法,包括以下步骤:
(1)获取道路监控视频,并将该道路监控视频以每秒1~5帧的频率截成帧图像;
(2)利用店面检测模型获取帧图像中的店面所在位置;
(3)当视频视角固定时,划分帧图像中店面外道板区域,并利用改进的ViBe方法对道板区域进行背景建模差分处理,获得店外物体,然后,利用店外物体分类模型对店外物体进行分类,获得店外物体的类别;
在所述改进的ViBe方法中:
当进行背景像素替换时,针对N个目标背景图,从当前像素点以及其上下左右四邻域内4个像素点中或者八邻域内8个像素点中随机选取一个像素点替换每个目标背景图中与当前像素点相同位置的像素点,同时在进行背景像素替换时,每1秒取1帧图像,设参数N=15~25;(4)当视频视角不固定时,利用物体检测模型对帧图像进行检测,获得帧图像中的物体所在位置及类别,然后,根据物体所在位置,筛选得到店外物体及类别;
(5)当店外物体属于店面经营物体时,即进行跨门经营报警;所述店外物体分类模型由VGG网络经训练得到,所述店面检测模型和物体检测模型均由VGG网络和Faster R-CNN网络组成的学习网络经训练得到;
其中,所述店面检测模型和物体检测模型对应的学习网络包括:
VGG网络,用于由10个卷积层和3个最大池化层、2个全连接层组成,10个卷积层和3个最大池化层用于提取输入图像的特征,输出特征图;第一个全连接层用于将特征图连接成1*1*4096维的向量并输出,第二个全连接层用于对1*1*4096维的向量中的物体进行分类,输出物体类别及分类置信度;
RPN,接收VGG网络输出的特征图,用于在VGG网络输出的特征图中,提取可能存在目标的矩形候选区域ROI;
ROI池化层,连接在RPN与第一个全连接层之间,接收VGG网络输出的特征图和RPN输出的矩形候选区域ROI,用于将矩形候选区域ROI映射到特征图上后输出特征图;
第三全连接层,连接于第一全连接层之后,用于对1*1*4096维的向量中ROI框选的物体进行边界确定,输出物体坐标;
所述VGG网络包括:
第一层、第二层均为卷积核为3*3,通道数为64的卷积层,输出尺寸为960*640的特征图;
第三层为第一最大值池化层,将尺寸为960*640的特征图压缩至尺寸为480*320的特征图;
第四层、第五层均为卷积核为3*3,通道数为128的卷积层,输出尺寸为480*320的特征图;
第六层为第二最大值池化层,将尺寸为480*320的特征图压缩至尺寸为240*160的特征图;
第七层、第八层均为卷积核为3*3,通道数为256的卷积层,输出尺寸为240*160的特征图;
第九层为卷积核为1*1,通道数为256的卷积层,输出尺寸为240*160的特征图;
第十层为第三最大值池化层,将尺寸为240*160的特征图压缩至尺寸为60*40的特征图;
第十一层、第十二层均为卷积核为3*3,通道数为512的卷积层,输出尺寸为60*40的特征图;
第十三层为卷积核为1*1,通道数为512的卷积层,输出尺寸为60*40的特征图;
第十四层为1*1*4096的全连接层,输出1*1*4096维的向量;
第十五层为1*1*N的全连接层,用于对1*1*4096维的向量中的物体进行分类,输出物体类别及分类置信度,N为类别总数。
2.如权利要求1所述的基于深度学习目标检测与动态背景建模的商店跨门经营检测方法,其特征在于,步骤(1)中,以每秒1帧的频率将该道路监控视频截成帧图像。
3.如权利要求 1所述的基于深度学习目标检测与动态背景建模的商店跨门经营检测方法,其特征在于,所述N取值为20。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810619324.1/1.html,转载请声明来源钻瓜专利网。