[发明专利]图片分类方法、装置、计算机设备和存储介质在审
申请号: | 201911391376.9 | 申请日: | 2019-12-30 |
公开(公告)号: | CN111159450A | 公开(公告)日: | 2020-05-15 |
发明(设计)人: | 周康明;谈咏东 | 申请(专利权)人: | 上海眼控科技股份有限公司 |
主分类号: | G06F16/55 | 分类号: | G06F16/55;G06K9/62 |
代理公司: | 广州华进联合专利商标代理有限公司 44224 | 代理人: | 樊倩 |
地址: | 200030 上海市徐汇*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 图片 分类 方法 装置 计算机 设备 存储 介质 | ||
1.一种图片分类方法,其特征在于,所述方法包括:
获取多张多属性图片;
将各所述图片输入至预设的分类神经网络中,得到多种属性分类结果;
其中,所述分类神经网络是基于初始分类神经网络训练的,所述初始神经网络包括多个并联的全连接层,所述多个并联的全连接层共用一个输入层和特征提取层,每个全连接层输出的属性类别数量不同。
2.根据权利要求1所述的方法,其特征在于,所述分类神经网络的训练过程包括:
获取多张样本多属性图片;
将各所述样本多属性图片输入至所述输入层和所述特征提取层后,依照全连接层输出的属性类别数量从小到大,且前一个全连接层收敛后再训练下一个全连接的顺序,依次单独训练每个全连接层,直到所有的全连接层都收敛,注释掉除输出属性类别数量最大的全连接层以外的其它全部全连接层,得到所述分类神经网络。
3.根据权利要求2所述的方法,其特征在于,若所述初始神经网络的全连接层包括第一全连接层、第二全连接层和第三全连接层;所述第一全连接层输出的属性类别数量所述第二全连接层输出的属性类别数量所述第三全连接层输出的属性类别数量;
则所述分类神经网络的训练过程包括:
将各所述样本多属性图片输入至所述输入层和所述特征提取层后,训练所述第一全连接层,在所述第一全连接层收敛后训练所述第二全连接层,在所述第二全连接层收敛后训练所述第三全连接层,在所述第三全连接层收敛后,注释掉所述第一全连接层和所述第二全连接层,得到所述分类神经网络。
4.根据权利要求2或3所述的方法,其特征在于,所述初始分类神经网络还包括多个分类函数层,所述分类函数层分别连接在对应的全连接层后面;
所述分类函数层,用于在训练过程中,将各全连接层的输出变换为预设区间的值,并根据所述预设区间的值与预设阈值的比较结果,确定各所述全连接层对应的分类结果,再基于标准分类结果预测各所述分类结果的准确率。
5.根据权利要求4所述的方法,其特征在于,各所述全连接层的损失函数存在关联关系;
所述关联关系至少包括:按照全连接层的属性分类数量从小到大的顺序,从第二个全连接层开始,每一个全连接层的综合损失函数为当前全连接层的层级损失函数与所述当前全连接层之前的所有全连接层的层级损失函数的加权和。
6.根据权利要求5所述的方法,其特征在于,若所述初始神经网络的全连接层包括第一全连接层、第二全连接层和第三全连接层;所述第一全连接层的层级损失函数为第一损失函数,所述第二全连接层的层级损失函数为第二损失函数,所述第三全连接层为层级第三损失函数;
则所述关联关系包括:所述第二全连接层的综合损失函数为所述第一损失函数与所述第二损失函数的加权和;
所述第三全连接层的综合损失函数为所述第一损失函数、所述第二损失函数、所述第三损失函数的加权和。
7.根据权利要求5所述的方法,其特征在于,各所述全连接层收敛的条件包括:
各所述全连接层的分类函数层预测的准确率达到预设准确率范围,且各所述全连接层的损失函数的值达到预设范围。
8.一种图片分类装置,其特征在于,所述装置包括:
获取模块,用于获取多张多属性图片;
分类模块,用于将各所述图片输入至预设的分类神经网络中,得到多种属性分类结果;
其中,所述分类神经网络是基于初始分类神经网络训练的,所述初始神经网络包括多个并联的全连接层,所述多个并联的全连接层共用一个输入层和特征提取层,每个全连接层输出的属性类别数量不同。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海眼控科技股份有限公司,未经上海眼控科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911391376.9/1.html,转载请声明来源钻瓜专利网。