[发明专利]一种基于可微量化训练的视觉Transformer压缩方法及系统在审
申请号: | 202210295189.6 | 申请日: | 2022-03-24 |
公开(公告)号: | CN114756517A | 公开(公告)日: | 2022-07-15 |
发明(设计)人: | 李哲鑫;张一帆;王培松;程健 | 申请(专利权)人: | 中科南京人工智能创新研究院;中国科学院自动化研究所 |
主分类号: | G06F16/174 | 分类号: | G06F16/174;G06F17/16;G06K9/62;G06N3/04;G06T7/11;G06V10/774 |
代理公司: | 南京泰普专利代理事务所(普通合伙) 32360 | 代理人: | 张磊 |
地址: | 211135 江苏省南京市创*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 微量 训练 视觉 transformer 压缩 方法 系统 | ||
1.一种基于可微量化训练的视觉Transformer压缩方法,其特征在于,包括以下步骤:
步骤一、将输入图片进行分块处理,并通过线性映射转换成对应的图片序列;
步骤二、将图片序列依次经过M次全局信息与局部信息的量化交替式处理,得到压缩后的图片序列;其中M为整数;
步骤三、将压缩后的图片序列进行分类处理,输出预测的概率值;在执行步骤一至步骤三时引入了可微量化步长训练方法,基于可微量化步长训练方法提高每次可微量化步长与图像数据的匹配度;同时,步骤二在执行局部信息量化时引入了可微量化偏置训练方法,基于可微量化偏置训练方法自动学习得到最优的量化区间,保留负激活区域的信息。
2.根据权利要求1所述的一种基于可微量化训练的视觉Transformer压缩方法,其特征在于,在执行可微量化步长训练方法和/或可微量化偏置训练方法时,还包括基于最小化均方误差的量化参数初始化。
3.根据权利要求1所述的一种基于可微量化训练的视觉Transformer压缩方法,其特征在于,所述可微量化步长训练方法同时适用于图像特征量化和图像权重量化;
其中,所述可微量化步长训练方法包括以下流程:
定义全精度的权重为w,量化后的定点权重为q,量化操作表示为:
式中,clip(z,a,b)表示将矩阵z中大于a的元素置为a,大于b的元素置为b;round操作表示基于四舍五入的取整;α表示可微量化步长,-qmin,qmax分别表示量化范围的最小值和最大值;
通过反量化操作,计算得到与定点权重为q相对应的浮点
4.根据权利要求1所述的一种基于可微量化训练的视觉Transformer压缩方法,其特征在于,所述可微量化偏置训练方法包括以下流程:
定义全精度的权重为w,量化后的定点权重为q,量化操作表示为:
式中,clip(z,a,b)表示将矩阵z中大于a的元素置为a,大于b的元素置为b;round操作表示基于四舍五入的取整;α表示可微量化步长,-qmin,qmax分别表示量化范围的最小值和最大值;
通过反量化操作,计算得到与定点权重为q相对应的浮点其中,β为引入的可微量化偏置。
5.根据权利要求3或4任意一项所述的一种基于可微量化训练的视觉Transformer压缩方法,其特征在于,所述-qmin,qmax的取值如下:给定量化比特位b,
对于带符号的数量化,则有qmin=2b-1,qmax=2b-1-1;
对于无符号的数量化,则有qmin=0,qmax=2b-1。
6.根据权利要求3或4任意一项所述的一种基于可微量化训练的视觉Transformer压缩方法,其特征在于,
反量化操作时,使用直通估计器处理梯度:若α发生更新,则对其梯度除以额外的缩放因子g,其中Nw表示全精度的权重w的元素个数。
7.根据权利要求2所述的一种基于可微量化训练的视觉Transformer压缩方法,其特征在于,基于最小化均方误差的量化参数初始化具体包括以下流程:
对于只有可微量化步长α而没有偏置的层,其初始化方法表示为:
假设α为已知,求解得到
假设q为已知,求解得到
反复迭代求解q和α直到α收敛,将其值作α的初始值,然后再通过梯度下降法更新α。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中科南京人工智能创新研究院;中国科学院自动化研究所,未经中科南京人工智能创新研究院;中国科学院自动化研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210295189.6/1.html,转载请声明来源钻瓜专利网。