[发明专利]一种基于注意力机制的EfficientNet敏感图像检测方法及系统在审
申请号: | 202110073846.8 | 申请日: | 2021-01-20 |
公开(公告)号: | CN112396571A | 公开(公告)日: | 2021-02-23 |
发明(设计)人: | 陈晓莉;和建文;丁一帆;杨世宏;冯国栋;徐云华;林建洪 | 申请(专利权)人: | 浙江鹏信信息科技股份有限公司;中国移动通信集团云南有限公司 |
主分类号: | G06T5/00 | 分类号: | G06T5/00;G06T7/00;G06N3/04;G06N3/08 |
代理公司: | 浙江千克知识产权代理有限公司 33246 | 代理人: | 周希良 |
地址: | 311100 浙江省杭州市余杭*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 注意力 机制 efficientnet 敏感 图像 检测 方法 系统 | ||
1.一种基于注意力机制的EfficientNet敏感图像检测方法,其特征在于,包括步骤:
S1.创建图像数据集;所述图像数据集包括敏感图像、非敏感图像;
S2.对创建的数据集进行扩充处理,得到扩充后的图像数据集;
S3.通过基于注意力机制的EfficientNet网络结构对扩充后的图像数据集进行finetune微调训练,得到训练好的EfficientNet网络结构的参数;
S4.将得到的EfficientNet网络结构的参数输入至numpy中,并采用numpy构建基于注意力机制的EfficientNet网络模型,得到waff_EfficientNet网络模型;
S5.预设敏感图像数据库,将预设的敏感图像数据库中的敏感图像输入得到的waff_EfficientNet网络模型进行特征处理,得到敏感图像特征数据库;
S6.将待检测的图像输入步骤S4中得到的waff_EfficientNet网络模型进行特征处理,得到转换后的特征图像,计算转换后的特征图像与敏感图像特征数据库中的敏感图像的欧氏距离,并判断是否存在欧氏距离小于预设阈值,若是,则输出待测图像为敏感图像。
2.根据权利要求1所述的一种基于注意力机制的EfficientNet敏感图像检测方法,其特征在于,所述步骤S2中对创建的数据集进行扩充处理的处理方式包括翻转、旋转、裁剪、缩放、平移、添加噪声、对比度变换。
3.根据权利要求1所述的一种基于注意力机制的EfficientNet敏感图像检测方法,其特征在于,所述步骤S4具体为:
S41.将得到的EfficientNet网络结构的参数输入至numpy中,并采用numpy对扩充后的图像数据集中的图像进行卷积操作,得到图像数据集中图像的特征图;
S42.将得到的特征图输入注意力机制中进行处理,得到waff_EfficientNet网络模型。
4.根据权利要求3所述的一种基于注意力机制的EfficientNet敏感图像检测方法,其特征在于,所述步骤S41中对扩充后的图像数据集中的图像进行卷积操作包括:
A1.将扩充后的图像数据集中的图像划分成若干个与卷积核相同大小的不同子集,并将经过划分得到的不同子集分别与卷积核点乘,得到经过点乘后的不同子集;
A2.将经过点乘后得到的不同子集与卷积核相乘,得到图像的特征图信息;
A3.将EfficientNet网络结构的参数输入得到的特征图信息中进行处理,得到处理后的特征图。
5.根据权利要求4所述的一种基于注意力机制的EfficientNet敏感图像检测方法,其特征在于,所述步骤A1中将扩充后的图像数据集中的图像划分成若干个与卷积核相同大小的不同子集是通过numpy的张量分割函数进行划分的;所述将经过划分得到的不同子集分别与卷积核点乘是通过numpy的tensordot函数进行点乘的。
6.根据权利要求3所述的一种基于注意力机制的EfficientNet敏感图像检测方法,其特征在于,所述步骤S42具体为:
S421.将得到的特征图与C个1*1的卷积核进行卷积处理,生成特征图的空间信息;
S422.将生成的特征图的空间信息通过sigmoid函数进行激活,得到激活后的特征图空间信息,即为加入注意力机制处理后的特征图。
7.根据权利要求1所述的一种基于注意力机制的EfficientNet敏感图像检测方法,其特征在于,所述步骤S5与步骤S6中waff_EfficientNet网络模型进行特征处理包括进行特征转换以及归一化处理。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江鹏信信息科技股份有限公司;中国移动通信集团云南有限公司,未经浙江鹏信信息科技股份有限公司;中国移动通信集团云南有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110073846.8/1.html,转载请声明来源钻瓜专利网。