[发明专利]一种基于变分自编码器的图像增量学习方法有效
申请号: | 201811294175.2 | 申请日: | 2018-11-01 |
公开(公告)号: | CN109543838B | 公开(公告)日: | 2021-06-18 |
发明(设计)人: | 宣琦;缪永彪;陈晋音 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/04 |
代理公司: | 杭州斯可睿专利事务所有限公司 33241 | 代理人: | 王利强 |
地址: | 310014 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 编码器 图像 增量 学习方法 | ||
一种基于变分自编码器的图像增量学习方法,包括以下步骤:1)构造以AlexNet网络层结构为原型的编码层,引入采样层和输出层;2)构建以上采样层和卷积层为基础的解码器,并且添加BacthNorm层;3)将编码器和解码器作为一个端到端的整体在数据集上进行训练;4)独立出编码器的分类层和解码器作为旧类别数据的生成器,并联合新增数据进行增量学习。本发明使得对抗扰动的生成不再受限于实际中众多环境因素的影响,具有较高的实用价值。
技术领域
本发明涉及增量学习方法和数字图像处理技术,借鉴了变分自编码(VariationalAuto Encoders,VAEs)的思想,利用改进的编码器(Encoder)进行分类,解码器(Decoder)生成与输入尽可能相似的图片,并且在保持分类层识别精度的前提下,将增量类别数据与解码器生成的数据进行联合训练(Joint training),从而达到在原有模型上的图像增量学习。
背景技术
随着深度学习地迅速发展,尽管深度神经网络在图像分类,语义分割,目标检测,语音识别,医学图像分析等各个领域显示出优越的性能,但是通常在这种情况下,需要为每个新任务训练各自独立的模型。为了同时提升在多个数据集上的效果,适应各个数据分布的不同,深度神经网络通常需要对整个数据集进行重新训练,以避免灾难性遗忘问题(Catastrophic Forgetting),即学习了新的知识之后,几乎彻底遗忘了之前训练的知识,可参考文献1(Choy,Min Chee,Srinivasan,Dipti,and Cheu,Ruey Long,“Neuralnetworks for continuous online learning andcontrol.,”IEEE Trans NeuralNetwork,17(6):1511–1531,November 2006.ISSN1045-9227.doi:10.1109/TNN.2006.881710,即Choy,Min Chee,Srinivasan,Dipti,和Cheu,Ruey Long,基于持续在线学习和控制的神经网络,IEEE Trans Neural Network,17(6):1511–1531,November2006.ISSN 1045-9227.doi:10.1109/TNN.2006.881710.)。尤其是在数据量随着时间不断累积的场景下,完全重新训练模型满足不了实际需求。以上现象足以证明深度学习自身存在着潜在的缺陷:重新训练模型需要花费大量时间,无法克服灾难性遗忘问题的前提下,模型的识别性能难以在原有性能上提升。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811294175.2/2.html,转载请声明来源钻瓜专利网。
- 彩色图像和单色图像的图像处理
- 图像编码/图像解码方法以及图像编码/图像解码装置
- 图像处理装置、图像形成装置、图像读取装置、图像处理方法
- 图像解密方法、图像加密方法、图像解密装置、图像加密装置、图像解密程序以及图像加密程序
- 图像解密方法、图像加密方法、图像解密装置、图像加密装置、图像解密程序以及图像加密程序
- 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序以及图像解码程序
- 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、以及图像解码程序
- 图像形成设备、图像形成系统和图像形成方法
- 图像编码装置、图像编码方法、图像编码程序、图像解码装置、图像解码方法及图像解码程序
- 图像编码装置、图像编码方法、图像编码程序、图像解码装置、图像解码方法及图像解码程序