[发明专利]信息处理装置、信息处理方法和信息处理程序在审
申请号: | 201980091148.1 | 申请日: | 2019-02-15 |
公开(公告)号: | CN113383347A | 公开(公告)日: | 2021-09-10 |
发明(设计)人: | 冈田尚也 | 申请(专利权)人: | 三菱电机株式会社 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/10 |
代理公司: | 北京三友知识产权代理有限公司 11127 | 代理人: | 马建军;邓毅 |
地址: | 日本*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 信息处理 装置 方法 程序 | ||
处理性能计算部(101)计算安装有具有多个层的神经网络时的嵌入式设备的处理性能。达到要求判定部(102)判定安装有神经网络时的嵌入式设备的处理性能是否满足要求处理性能。在由达到要求判定部(102)判定为安装有神经网络时的嵌入式设备的处理性能不满足要求处理性能的情况下,削减层指定部(103)根据神经网络的各层的运算量,从多个层中指定削减运算量的层即削减层。
技术领域
本发明涉及神经网络。
背景技术
在神经网络(以下简称作网络)中,需要大规模的运算。因此,在将神经网络直接安装于嵌入式设备等资源有限的设备的情况下,无法实时地使神经网络进行动作。为了在资源有限的设备中实时地使神经网络进行动作,需要神经网络的轻量化。
在专利文献1中公开有用于提高神经网络的推理处理速度的结构。
在专利文献1中公开有通过削减权重矩阵的维度来减少推理处理中的积和运算量的结构。更具体而言,在专利文献1中公开有如下结构:为了极力抑制由于削减计算量而引起的识别精度降低,越靠神经网络的前级,削减量越少,越靠后级,削减量越多。
现有技术文献
专利文献
专利文献1:日本特开2018-109947号公报
发明内容
发明要解决的课题
在专利文献1的技术中,较多地削减神经网络的后级的运算量。因此,在后级的运算量比前级少的神经网络中,可能以必要以上的程度削减后级的运算量。
运算量的削减对识别精度造成影响。因此,当以必要以上的程度削减后级的运算量时,还可能发生识别率恶化、无法实现要求识别精度这样的情况。
这样,在专利文献1的技术中,没有考虑神经网络内的运算量的分布,因此,存在无法进行与运算量的分布对应的有效的运算量削减这样的课题。
本发明的主要目的之一在于解决上述这种课题。更具体而言,本发明的主要目的在于,能够根据神经网络内的运算量的分布,有效地削减神经网络的运算量。
用于解决课题的手段
本发明的信息处理装置具有:处理性能计算部,其计算安装有具有多个层的神经网络时的设备的处理性能;达到要求判定部,其判定安装有所述神经网络时的所述设备的处理性能是否满足要求处理性能;以及削减层指定部,其在由所述达到要求判定部判定为安装有所述神经网络时的所述设备的处理性能不满足所述要求处理性能的情况下,根据所述神经网络的各层的运算量,从所述多个层中指定削减运算量的层即削减层。
发明效果
根据本发明,根据各层的运算量指定削减层,因此,能够进行与神经网络内的运算量的分布对应的有效的运算量削减。
附图说明
图1是示出实施方式1的神经网络和嵌入式设备的例子的图。
图2是示出实施方式1的各层的运算量和处理时间的例子的图。
图3是示出现有技术的运算量的削减例的图。
图4是示出实施方式1的瓶颈的图。
图5是示出实施方式1的运算量的削减例的图。
图6是示出实施方式1的动作的概要的流程图。
图7是示出实施方式1的信息处理装置的功能结构例的图。
图8是示出实施方式1的信息处理装置的硬件结构例的图。
图9是示出实施方式1的信息处理装置的动作例的流程图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于三菱电机株式会社,未经三菱电机株式会社许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201980091148.1/2.html,转载请声明来源钻瓜专利网。