[发明专利]基于深度压缩域特征的场景分类方法、系统及设备有效
申请号: | 202110190015.9 | 申请日: | 2021-02-18 |
公开(公告)号: | CN112991476B | 公开(公告)日: | 2021-09-28 |
发明(设计)人: | 胡卫明;刘雨帆;张迎雪;李兵 | 申请(专利权)人: | 中国科学院自动化研究所 |
主分类号: | G06T9/40 | 分类号: | G06T9/40;G06T5/50;G06T3/40;G06K9/62;G06T7/168 |
代理公司: | 北京市恒有知识产权代理事务所(普通合伙) 11576 | 代理人: | 郭文浩;尹文会 |
地址: | 100190 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 压缩 特征 场景 分类 方法 系统 设备 | ||
本发明属于图像识别领域,具体涉及了一种基于深度压缩域特征的场景分类方法、系统、装置,旨在解决现有的场景分类方法由于图像的分辨率高数据庞大而导致的计算资源浪费、实时性差以及存储空间占用过多的问题。本发明包括:通过JPEG压缩方法对待测图像进行部分解码,获得待测图像的三通道DCT系数,通过反卷积调节所述三通道DCT系数的尺寸,获得尺寸匹配的三通道DCT系数,将所述尺寸匹配的三通道DCT系数进行拼接融合,获取深度压缩域特征,基于所述深度压缩域特征,通过训练好的压缩域特征分类网络,获取所述待测图像的场景类别。本发明避免了将图像全部解码造成额外计算成本增加和存储介质浪费,降低了时间消耗和计算资源消耗。
技术领域
本发明属于图像识别领域,具体涉及了一种基于深度压缩域特征的场景分类方法、系统及设备。
背景技术
随着大数据的技术发展,用来训练深度学习模型的数据也越来越多。但是响应速度跟不上数据量的增长,无法对数据进行及时的处理。另一方面,训练过程中参数量巨大,容易造成内存溢出,训练无法正常进行下去。面对互联网上的海量信息,如何快速准确地识别出敏感场景在维护网络安全方面至关重要。因此亟需开发一套高效率场景分类算法。
图像处理在深度学习中具有关键性作用,目前普遍存在的图片都是经过压缩的,在输入网络前必须先解压才能在像素域中进行处理,现有的大型数据集数据量庞大、分辨率高,在解压时会消耗大量的计算资源,还会占用较多的中介存储空间,严重影响模型的训练和检测的实时性。
发明内容
为了解决现有技术中的上述问题,即现有的场景分类方法由于图像的分辨率高数据庞大而导致的计算资源浪费、实时性差以及存储空间占用过多的问题,本发明提供了一种基于深度压缩域特征的场景分类方法,该方法包括:
步骤S100,通过JPEG压缩方法对待测图像进行部分解码,获得待测图像的三通道DCT系数;所述三通道DCT系数包括Y通道DCT系数、Cb通道DCT系数和Cr通道DCT系数;
步骤S200,通过反卷积调节所述三通道DCT系数的尺寸,获得尺寸匹配的三通道DCT系数;所述尺寸匹配的三通道DCT系数的各DCT系数空间尺寸比例为:Y通道DCT系数:Cb通道DCT系数:Cr通道DCT系数=2:1:1;
步骤S300,将所述尺寸匹配的三通道DCT系数进行拼接融合,获取深度压缩域特征;
步骤S400,基于所述深度压缩域特征,通过训练好的压缩域特征分类网络,获取所述待测图像的场景类别。
进一步地,所述步骤S300,包括:
步骤S310,基于所述尺寸匹配的三通道DCT系数中的Y通道DCT系数,通过一个卷积核为1*1的卷积层得到Y通道特征向量;
基于所述Cb通道DCT系数和Cr通道DCT系数,进行反卷积操作后获得Cb通道Cr通道拼接特征向量;
步骤S320,基于所述Y通道特征向量和Cb通道Cr通道拼接特征向量,通过拼接融合模块,获取深度压缩域特征。
进一步地,所述压缩域特征分类网络,其训练方法为:
步骤A100,基于训练图像,通过如步骤S100-步骤S300的方法获取训练图像的深度压缩域特征;
步骤A200,基于所述训练图像的深度压缩域特征,依次通过卷积层、归一化层、激活函数层、全局平均池化层和全连接层获得训练图像的场景类别;
步骤A300,计算多分类交叉熵损失函数,通过梯度下降算法对压缩域特征分类网络的参数进行更新;
步骤A400,重复步骤A100-步骤A300,直至网络收敛或达到预设的迭代次数,获得训练好的压缩域特征分类网络。
进一步地,所述压缩域特征分类网络,还包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院自动化研究所,未经中国科学院自动化研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110190015.9/2.html,转载请声明来源钻瓜专利网。