[发明专利]一种基于变分自编码器的图像增量学习方法有效

专利信息
申请号: 201811294175.2 申请日: 2018-11-01
公开(公告)号: CN109543838B 公开(公告)日: 2021-06-18
发明(设计)人: 宣琦;缪永彪;陈晋音 申请(专利权)人: 浙江工业大学
主分类号: G06N3/08 分类号: G06N3/08;G06N3/04
代理公司: 杭州斯可睿专利事务所有限公司 33241 代理人: 王利强
地址: 310014 浙江省*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 编码器 图像 增量 学习方法
【说明书】:

一种基于变分自编码器的图像增量学习方法,包括以下步骤:1)构造以AlexNet网络层结构为原型的编码层,引入采样层和输出层;2)构建以上采样层和卷积层为基础的解码器,并且添加BacthNorm层;3)将编码器和解码器作为一个端到端的整体在数据集上进行训练;4)独立出编码器的分类层和解码器作为旧类别数据的生成器,并联合新增数据进行增量学习。本发明使得对抗扰动的生成不再受限于实际中众多环境因素的影响,具有较高的实用价值。

技术领域

本发明涉及增量学习方法和数字图像处理技术,借鉴了变分自编码(VariationalAuto Encoders,VAEs)的思想,利用改进的编码器(Encoder)进行分类,解码器(Decoder)生成与输入尽可能相似的图片,并且在保持分类层识别精度的前提下,将增量类别数据与解码器生成的数据进行联合训练(Joint training),从而达到在原有模型上的图像增量学习。

背景技术

随着深度学习地迅速发展,尽管深度神经网络在图像分类,语义分割,目标检测,语音识别,医学图像分析等各个领域显示出优越的性能,但是通常在这种情况下,需要为每个新任务训练各自独立的模型。为了同时提升在多个数据集上的效果,适应各个数据分布的不同,深度神经网络通常需要对整个数据集进行重新训练,以避免灾难性遗忘问题(Catastrophic Forgetting),即学习了新的知识之后,几乎彻底遗忘了之前训练的知识,可参考文献1(Choy,Min Chee,Srinivasan,Dipti,and Cheu,Ruey Long,“Neuralnetworks for continuous online learning andcontrol.,”IEEE Trans NeuralNetwork,17(6):1511–1531,November 2006.ISSN1045-9227.doi:10.1109/TNN.2006.881710,即Choy,Min Chee,Srinivasan,Dipti,和Cheu,Ruey Long,基于持续在线学习和控制的神经网络,IEEE Trans Neural Network,17(6):1511–1531,November2006.ISSN 1045-9227.doi:10.1109/TNN.2006.881710.)。尤其是在数据量随着时间不断累积的场景下,完全重新训练模型满足不了实际需求。以上现象足以证明深度学习自身存在着潜在的缺陷:重新训练模型需要花费大量时间,无法克服灾难性遗忘问题的前提下,模型的识别性能难以在原有性能上提升。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201811294175.2/2.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top