[发明专利]信息处理设备和信息处理方法在审
申请号: | 201880071369.8 | 申请日: | 2018-11-21 |
公开(公告)号: | CN111295677A | 公开(公告)日: | 2020-06-16 |
发明(设计)人: | 三上裕明 | 申请(专利权)人: | 索尼公司 |
主分类号: | G06N3/08 | 分类号: | G06N3/08 |
代理公司: | 北京康信知识产权代理有限责任公司 11240 | 代理人: | 吴孟秋 |
地址: | 日本*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 信息处理 设备 方法 | ||
1.一种信息处理设备,包括使用神经网络执行学习的学习单元,其中,
所述学习单元基于具有用于学习来自所述神经网络的输出的理想状态的间隙值动态地改变在学习期间的批大小的值。
2.根据权利要求1所述的信息处理设备,其中,具有所述理想状态的所述间隙值至少包括损失。
3.根据权利要求2所述的信息处理设备,其中,当基于所述损失预计学习收敛时,所述学习单元增加在学习期间的所述批大小的值。
4.根据权利要求3所述的信息处理设备,其中,所述学习单元基于所述损失的n阶微分值增加在学习期间的所述批大小的值。
5.根据权利要求4所述的信息处理设备,其中,所述学习单元基于所述损失的值和所述损失的梯度中的至少任一者是否下降到阈值以下来增加在学习期间的所述批大小的值。
6.根据权利要求2所述的信息处理设备,其中,当基于所述损失预计学习发散时,所述学习单元减少在学习期间的所述批大小的值。
7.根据权利要求1所述的信息处理设备,其中,所述学习单元基于回合动态地改变所述批大小的值。
8.根据权利要求7所述的信息处理设备,其中,所述学习单元由于回合的进行来增加所述批大小的值。
9.根据权利要求8所述的信息处理设备,其中,当基于具有所述理想状态的间隙值预计学习发散时,所述学习单元重新加载前一回合中的网络模型。
10.根据权利要求9所述的信息处理设备,其中,当重新加载所述前一回合中的所述网络模型时,所述学习单元将所述批大小的值设置为小于在所述前一回合中设置的值。
11.根据权利要求7所述的信息处理设备,其中,所述学习单元在每个回合中增加所述批大小的值。
12.根据权利要求1所述的信息处理设备,还包括:批大小改变单元,所述批大小改变单元基于所述学习单元设置的值来控制所述批大小的增加或减少。
13.根据权利要求12所述的信息处理设备,其中,所述批大小改变单元重构GPU中的模型,以控制所述批大小的增加或减少。
14.根据权利要求12所述的信息处理设备,其中,所述批大小改变单元增加或减少用于学习的计算循环的数量,以控制所述批大小的增加或减少。
15.根据权利要求12所述的信息处理设备,其中,所述批大小改变单元增加或减少用于学习的GPU的数量,以控制所述批大小的增加或减少。
16.根据权利要求12所述的信息处理设备,其中,当存在另外能够利用的GPU时,所述批大小改变单元将所述GPU分配给学习以控制所述批大小的增加。
17.根据权利要求12所述的信息处理设备,其中,当不存在另外能够利用的GPU并且在当前使用的GPU的存储器中存在空闲空间时,所述批大小改变单元重构所述当前使用的GPU中的模型,以控制所述批大小的增加。
18.根据权利要求12所述的信息处理设备,其中,在当前使用的GPU的存储器中没有空闲空间时,所述批大小改变单元增加用于学习的计算循环的数量,以控制所述批大小的增加。
19.根据权利要求1所述的信息处理设备,其中,具有所述理想状态的所述间隙值包括训练误差和验证误差中的至少任一者。
20.一种信息处理方法,包括由处理器执行使用神经网络的学习,其中,
所述学习还包括基于具有用于学习来自所述神经网络的输出的理想状态的间隙值来动态地改变在学习期间的批大小的值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于索尼公司,未经索尼公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201880071369.8/1.html,转载请声明来源钻瓜专利网。