[发明专利]基于前后背景分卷积神经网络的X光违禁物品检测方法有效

专利信息
申请号: 202110392132.3 申请日: 2021-04-13
公开(公告)号: CN113095404B 公开(公告)日: 2023-07-04
发明(设计)人: 刘静;邵方涛 申请(专利权)人: 西安电子科技大学
主分类号: G06V10/764 分类号: G06V10/764;G06V10/82;G06N3/0464;G06N3/0455;G06N3/084;G06T7/194;G06T7/73;G01N23/04
代理公司: 陕西电子工业专利中心 61205 代理人: 陈宏社;王品华
地址: 710071*** 国省代码: 陕西;61
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 前后 背景 卷积 神经网络 违禁物品 检测 方法
【权利要求书】:

1.一种基于前后背景分离卷积神经网络的X光违禁物品检测方法,其特征在于包括如下步骤:

(1)获取训练样本集和测试样本集:

(1a)获取V幅包含不同类别违禁物品的X光图像O={oi|1≤i≤V},并对每幅X光图像oi中的违禁物品类别及位置坐标进行标注,得到类别标签集和位置坐标标签集其中,V>8000,oi表示第i幅X光图像,和分别表示oi所包含的违禁物品的类别标签和位置坐标标签,表示第u类违禁物品,U表示违禁物品类别标签的总数,U≥2,和分别表示所围成的标记框中心的横坐标、标记框中心的纵坐标、标记框的宽和标记框的高;

(1b)将随机选取O中半数以上的违禁物品X光图像及其对应的类别标签和位置坐标标签组成训练样本集Otrain={oj|1≤j≤Vtrain},V/2<Vtrain≤V,将其余违禁物品X光图像及其对应的类别标签和位置坐标标签组成测试样本集Otest={ol|1≤l≤Vtest},其中,oj表示训练样本集中的第j张X光图像,ol表示训练样本集中的第l张X光图像,V/2<Vtrain≤V,Vtest=V-Vtrain

(2)构建前后背景分离卷积神经网络模型:

(2a)构建前后背景分离卷积神经网络模型的结构:

构建包括顺次连接的特征提取网络fextract、前景解码器网络fdecoder_foreground、注意力网络fattention和输出网络foutput,和连接在特征提取网络fextract后的另一分支背景解码器网络fdecoder_background,其中,特征提取网络fextract包括输入层、多个卷积模块和多个残差模块;前景解码器网络fdecoder_foreground、背景解码器网络fdecoder_background均包括多个上采样层、多个卷积模块和多个shortcut拼接层;注意力网络fattention包括多个卷积模块;输出网络foutput包括多个卷积层、多个归一化层和多个激活函数层;

(2b)定义前后背景分离损失函数Lossfb

Lossfb=|fpredict-ftarget|+|opredict-oj|+λin(|fin_predict-fin_target|+|oin_predict-oin|)

opredict=fpredict·bpredict

其中oj表示训练样本集Otrain中的一幅图像,fpredict表示图像oj的预测前景图像,bpredict表示图像oj的预测背景图像,opredict表示由图像oj的预测前景fpredict和预测背景bpredict重构的图像,ftarget表示图像oj的目标前景图像,fin_predict表示预测前景fpredict在图像oj的位置坐标标签范围内的图像,fin_target表示目标前景ftarget在图像oj的位置坐标标签范围内的图像,oin_predict表示重构图像opredict在图像oj的位置坐标标签范围内的图像,oin表示图像oj在图像oj的位置坐标标签范围内的图像,λin为位置坐标内外平衡参数;

(2c)定义类别和定位损失函数Losslc

其中,K表示将图像oj划分成网格的网格数量,M表示候选框anchor的数量,表示图像oj在网格点m,n处的候选框anchor内存在违禁物品,表示图像oj在网格点m,处的候选框anchor内是否存在违禁物品,w表示图像的oj预测标记框的宽度,h表示图像oj的预测标记框的高度,x表示图像的oj预测标记框中心的横坐标,y表示图像oj预测标记框中心的纵坐标,C表示图像oj在预测标记框内存在违禁物品的置信度,表示图像oj在预测标记框内实际存在违禁物品,p(c)表示图像oj的预测标记框内违禁物品属于第c类违禁物品的概率,表示图像oj的预测标记框内是否存在第c类违禁物品,λcoord表示定位平衡参数,λnoobj表示类别平衡参数;

(3)对前后背景分离卷积神经网络进行迭代训练:

(3a)初始化特征提取网络fextract的网络权重参数为前景解码器网络fdecoder_foreground的网络权重参数为背景解码器网络fdecoder_background的网络权重参数为注意力网络fattention的网络权重参数为输出网络foutput的网络权重参数为迭代次数为t,最大迭代次数为T≥50,并令t=0;

(3b)将训练样本集Otrain中的每幅图像oj作为特征提取网络fextract的输入,每幅图像oj在特征提取网络中进行前向传播,得到图像oj的高级特征

(3d)将图像oj的高级特征分别作为前景解码器网络fdecoder_foreground和背景解码器fdecoder_background的输入进行重构,得到图像oj的预测前景和预测背景

(3e)由预测前景和预测背景构建图像oj的目标前景和目标背景

其中,表示图像oj在位置坐标标签范围内的图像,表示图像oj中除以外部分的图像,表示与之间的差异,threhold为差异阈值;

(3f)将图像oj的预测前景作为注意力网络fattention的输入fattention进行向前传播,得到图像oi的注意力图

(3g)将图像oj的注意力图与图像oj的高级特征相乘,得到图像oj关注于预测前景的高级特征

(3g)将图像oj关注于预测前景的高级特征作为输出网络foutput的输入进行向前传播,得到图像oi的所包含违禁物品的预测位置坐标标签置信度信息和预测类别标签概率

(3h)采用损失函数Lossfb,当t=0,通过计算前后背景分离损失函数Lossfb,当t≥1,通过计算前后背景分离损失函数Lossfb;采用损失函数Losslc,并通过Cjt、计算类别和定位损失函数Losslc;将前后背景分离损失函数Lossfb与类别和定位损失函数Losslc相加得到前后背景分离卷积神经网络总损失函数Loss=Lossfb+Losslc,再采用反向传播方法并通过Loss计算fextract、fdecoder_foreground、fdecoder_background,fattention和foutput的网络权重参数梯度,然后采用梯度下降算法通过fextract、fdecoder_foreground、fdecoder_background,fattention和foutput的网络权重参数梯度对fextract、fdecoder_foreground、fdecoder_background,fattention和foutput的网络权重参数θextractdecoder_foreground,θdecoder_background,θattention和θoutput进行更新;

(3f)判断t≥T是否成立,若是,得到训练好的前后背景分离卷积神经网络模型,否则,令t=t+1,并执行步骤(3b);

(4)获取X光违禁物品图像识别结果:

(4a)将测试样本集Otest中的每一个测试图像ol作为训练好的前后背景分离卷积神经网络模型的输入进行前向传播,得到违禁物品的预测位置坐标标签(xl,yl,wl,hl),置信度信息Cl和类别标签概率pl(c);

(4b)将测试图像ol预测的置信度信息Ctesti中大于0.5的结果所对应的预测位置坐标标签(xl,yl,wl,hl)和类别标签概率pl(c)中最大值对应的违禁物品类别分别作为测试图像ol违禁物品的位置预测结果和类别预测结果。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202110392132.3/1.html,转载请声明来源钻瓜专利网。

同类专利
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top