[发明专利]计算处理装置和计算处理方法有效
申请号: | 201780024236.0 | 申请日: | 2017-05-10 |
公开(公告)号: | CN109074516B | 公开(公告)日: | 2023-09-19 |
发明(设计)人: | 坂口浩章 | 申请(专利权)人: | 索尼公司 |
主分类号: | G06N3/063 | 分类号: | G06N3/063;G06N3/045;G06N3/08;H03M13/05;G06F11/18 |
代理公司: | 北京康信知识产权代理有限责任公司 11240 | 代理人: | 余刚;吴孟秋 |
地址: | 日本*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 计算 处理 装置 方法 | ||
本技术涉及一种相对于执行更高可靠性的神经网络计算能够减小电路面积同时降低功耗的计算处理装置和计算处理方法。提供了一种计算处理装置,其相对于神经网络计算,使在计算中使用的加权系数和一部分输入数据的指定位冗余化,使得该冗余比除指定位以外的剩余位的冗余更大。因此,相对于执行更高可靠性的神经网络计算,可以减小电路面积同时降低功耗。例如,本技术可以应用于执行神经网络计算的计算处理装置。
技术领域
本技术涉及一种算术处理装置和算术处理方法,并且更具体地,涉及一种能够在执行神经网络的更可靠的算术运算时减小电路面积同时降低功耗的算术处理装置和算术处理方法。
背景技术
近年来,已积极进行关于神经网络的研究和发展。作为与神经网络相关的技术,例如,专利文献1是已知的。
现有技术文献
专利文献
专利文献1:日本专利申请公开号2015-210709
发明内容
本发明要解决的问题是
顺便提及,在被配置为执行神经网络的算术运算的算术处理装置中,需要增强这种算术运算的可靠性,但是,由于使用了许多算术单元,所以在实现简单多路复用的情况下,功耗和电路面积变大。因此,期望在执行神经网络的更可靠的算术运算时实现减小电路面积、同时降低功耗。
已经鉴于这种情况提出了本技术,并且本技术旨在执行神经网络的更可靠的算术运算时减小电路面积同时降低功耗。
问题的解决方案
根据本技术的一个方面的算术处理装置包括执行神经网络的算术运算的算术处理单元,其中,在神经网络的算术运算中,用于算术运算的加权系数和输入数据的特定位部分被冗余化,使得特定位部分的冗余变得大于除了该特定位部分之外的剩余位的冗余。
算术处理装置可以是独立装置,或者可以是被配置为执行算术处理装置的算术处理的块体。根据本技术的一个方面的算术处理方法是对应于根据本技术的一个方面的上述算术处理装置的算术处理方法。
在根据本技术的一个方面的算术处理装置和算术处理方法中,执行神经网络的算术运算。另外,在神经网络的算术运算中,用于算术运算的加权系数和输入数据的特定位部分被冗余化,使得特定位部分的冗余变得大于除了该特定位部分之外的剩余位的冗余。
本发明的效果
根据本技术的一个方面,在执行更可靠的神经网络算术运算时,可以减小电路面积同时降低功耗。
注意,本文描述的效果不一定是限制性的,可以应用本公开中描述的任何效果。
附图说明
图1是示出三重模块冗余的配置示例的示图。
图2是示出多数表决器的逻辑电路的配置示例的示图。
图3是示出在提供多个多数表决器的情况下的配置示例的示图。
图4是示出在一的补数的乘法数据中未实现高阶位冗余的情况下的算术运算的示例的示图。
图5是示出在一的补数的乘法数据中实现高阶位冗余的情况下的算术运算的示例的示图。
图6是示出在一的补数的乘法数据中实现高阶位冗余和额外实现多数表决器冗余的情况的示例的示图。
图7是示出在二的补数的累积相加数据中实现高阶位冗余的情况下的算术运算的示例的示图。
图8是示出应用了本技术的算术处理装置的配置示例的示图。
图9是示出卷积神经网络的概念配置示例的示图。
图10是示出卷积算术运算单元的配置示例的示图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于索尼公司,未经索尼公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201780024236.0/2.html,转载请声明来源钻瓜专利网。
- 上一篇:通过示例和经验的机器人的深度学习
- 下一篇:全局归一化神经网络