[发明专利]神经网络模型的训练方法、装置、计算机设备及存储介质在审
申请号: | 201910101300.1 | 申请日: | 2019-01-31 |
公开(公告)号: | CN111507467A | 公开(公告)日: | 2020-08-07 |
发明(设计)人: | 赵鑫 | 申请(专利权)人: | 北京奇虎科技有限公司 |
主分类号: | G06N3/08 | 分类号: | G06N3/08 |
代理公司: | 北京市立方律师事务所 11330 | 代理人: | 张筱宁 |
地址: | 100088 北京市西城区新*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 模型 训练 方法 装置 计算机 设备 存储 介质 | ||
1.一种神经网络模型的训练方法,其特征在于,包括:
获取目标用户的用户图像;
将所述用户图像输入至预设的图像识别模型中,以获取所述图像识别模型对所述用户图像的分类结果,其中,所述图像识别模型为预先训练至收敛状态的,用于对输入图像进行图像分类的神经网络模型;
读取所述图像识别模型输出的分类结果并显示所述分类结果,以获取所述目标用户对所述分类结果做出的验证信息;
根据所述验证信息对所述图像识别模型进行训练,以使所述图像识别模型中生成专属于所述目标用户的权重参数。
2.根据权利要求1所述的神经网络模型的训练方法,其特征在于,所述将所述用户图像输入至预设的图像识别模型中,以获取所述图像识别模型对所述用户图像的分类结果之前,包括:
将所述用户图像输入至预设的环境分类模型中,其中,所述环境分类模型为预先训练至收敛状态,用于对输入图像进行环境分类的神经网络模型;
读取所述环境分类模型输出的环境分类结果;
识别所述环境分类结果表征的环境场景是否训练至收敛状态;
当所述环境场景未训练至收敛状态时,确认所述图像识别模型对所述用户图像进行识别。
3.根据权利要求2所述的神经网络模型的训练方法,其特征在于,所述识别所述环境分类结果表征的环境场景是否训练至收敛状态包括:
以所述环境分类结果为检索条件在预设的历史分类信息数据库中进行查找,获取与所述环境分类结果表征的环境场景具有映射关系的训练信息,其中,所述训练信息中包括历史记录中所述图像识别模型对包含所述环境场景的用户图像的分类准确率;
将所述分类准确率与预设的准确率阈值进行比对;
当所述分类准确率小于所述准确率阈值时,确认所述环境场景未训练至收敛状态;否则,则确认所述环境场景已训练至收敛状态。
4.根据权利要求2所述的神经网络模型的训练方法,其特征在于,所述当所述环境场景未训练至收敛状态时,确认所述图像识别模型对所述用户图像进行识别之后,包括:
在预设的策略数据库中查找与所述环境场景具有映射关系的图像增强策略;
根据所述图像增强策略对所述用户图像进行图像增强处理,以生成派生于所述用户图像的增强图像。
5.根据权利要求4所述的神经网络模型的训练方法,其特征在于,所述图像识别模型为多通道模型,所述将所述用户图像输入至预设的图像识别模型中,以获取所述图像识别模型对所述用户图像的分类结果包括:
将所述用户图像与所述增强图像分别输入至所述图像识别模型的不同通道内;
比对图像识别模型计算得到的所述用户图像的分类结果与所述增强图像的分类结果是否一致;
当所述用户图像的分类结果与所述增强图像的分类结果一致时,确认输出所述用户图像的分类结果。
6.根据权利要求5所述的神经网络模型的训练方法,其特征在于,所述比对图像识别模型计算得到的所述用户图像的分类结果与所述增强图像的分类结果是否一致之后,包括:
当所述用户图像的分类结果与所述增强图像的分类结果不一致时,计算所述用户图像的特征向量与所述增强图像的特征向量之间的第一向量差值;
将所述第一向量差值进行反向传播以矫正所述图像识别模型中的权重参数,以使所述用户图像的分类结果与所述增强图像的分类结果趋于一致。
7.根据权利要求1所述的神经网络模型的训练方法,其特征在于,所述验证信息中包括目标用户认定的所述用户图像的验证分类结果,所述根据所述验证信息对所述图像识别模型进行训练,以使所述图像识别模型中生成专属于所述目标用户的权重参数包括:
当所述验证信息表征的验证结果为所述分类结果错误时,在预设的特征数据库中查找与所述验证分类结果具有映射关系的标定特征向量;
计算所述标定特征向量与所述用户图像的特征向量之间的第二向量差值;
将所述第二向量差值进行反向传播以矫正所述图像识别模型中的权重参数,以使所述用户图像的分类结果与所述验证分类结果趋于一致。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京奇虎科技有限公司,未经北京奇虎科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910101300.1/1.html,转载请声明来源钻瓜专利网。