[发明专利]基于卷积神经网隐含结构的迁移学习图像处理方法有效
申请号: | 201811152224.9 | 申请日: | 2018-09-29 |
公开(公告)号: | CN109300128B | 公开(公告)日: | 2022-08-26 |
发明(设计)人: | 郑军;刘新旺 | 申请(专利权)人: | 聚时科技(上海)有限公司 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T5/00;G06N3/08;G06N3/04 |
代理公司: | 上海科盛知识产权代理有限公司 31225 | 代理人: | 翁惠瑜 |
地址: | 200082 上海市杨浦区*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 卷积 神经 隐含 结构 迁移 学习 图像 处理 方法 | ||
本发明涉及一种基于卷积神经网隐含结构的迁移学习图像处理方法,包括以下步骤:1)获取填充任务;2)基于所述填充任务,利用迁移学习后的卷积神经网络进行图像填充;所述卷积神经网络包括一自动编码器,图像填充过程中,利用一掩码层计算指定位置的损失值并通过反向传播更新权重。与现有技术相比,本发明具有精度高,效率高,适用性广等优点。
技术领域
本发明涉及人工智能图像处理方法,尤其是涉及一种基于卷积神经网隐含结构的迁移学习图像处理方法。
背景技术
随着深度神经网络(DNNs)的发展,填充任务被广泛的研究。这些工作中的大部分都应用于给定缺失和相应的完整数据的情况,因此提出了Shepard插值和优化Shepard卷积神经网络(ShCNN)。此外,一些工作试图处理只有不完整的图像和遮盖的情况。这种情况下的演示事例是适用于小规模图像处理的DLGMs。受近似贝叶斯推理和DNNs的启发,DLGMs引入了一种识别模型来表示近似后验分布并优化变分下界,然后通过抽样生成实际样本。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于卷积神经网隐含结构的迁移学习图像处理方法。
本发明的目的可以通过以下技术方案来实现:
一种基于卷积神经网隐含结构的迁移学习图像处理方法,包括以下步骤:
1)获取填充任务;
2)基于所述填充任务,利用迁移学习后的卷积神经网络进行图像填充;
所述卷积神经网络包括一自动编码器,图像填充过程中,利用一掩码层计算指定位置的损失值并通过反向传播更新权重。
进一步地,所述损失值通过损失函数计算,所述损失函数表达式为:
其中,Lm代表损失函数x、y和N分别代表输入样本、预测向量和输入样本特征的数量,mi代表掩码。
进一步地,所述掩码根据如下公式确定:
进一步地,所述卷积神经网络的迁移学习过程中,同时利用大缺失洞的图像数据集和小缺失洞的单个图像进行训练。
进一步地,利用大缺失洞的图像数据集进行训练时,学习率为0.001。
进一步地,利用小缺失洞的单个图像进行训练时,学习率为0.01。
与现有技术相比,本发明具有以下有益效果:
1、本发明设置了具有新损失函数的掩码层,利用神经网络的潜在结构并估算缺失的位置,通过将掩码信息添加到损失函数中,促使网络根据所学习的知识来估算缺失的位置,精度高,效率高。
2、本发明在几个基准测试集中测试了所提出的方法,并且实验在图像填充中展现了卓越的性能,本发明即使在单个图像中也能在图像填充中也有着卓越的性能。
附图说明
图1为本发明的网络结构示意图;
图2为在MNIST数据集中本发明在缺失25%像素的情况下的实验结果示意图;
图3为在MNIST数据集中本发明与CE算法的结果比较示意图;
图4为本发明在Fashion数据集中的实验结果示意图;
图5为在Fashion数据集中本发明与CE算法的结果比较示意图;
图6为本发明在YaleB数据集中的实验结果示意图;
图7为本发明在SVHN数据集中的实验结果示意图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于聚时科技(上海)有限公司,未经聚时科技(上海)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811152224.9/2.html,转载请声明来源钻瓜专利网。