[发明专利]积和运算器、网络单元及网络装置在审
申请号: | 201710755161.5 | 申请日: | 2017-08-29 |
公开(公告)号: | CN108345935A | 公开(公告)日: | 2018-07-31 |
发明(设计)人: | 森政文;丸龟孝生;棚本哲史;高谷聪 | 申请(专利权)人: | 株式会社东芝 |
主分类号: | G06N3/06 | 分类号: | G06N3/06 |
代理公司: | 永新专利商标代理有限公司 72002 | 代理人: | 徐殿军 |
地址: | 日本*** | 国省代码: | 日本;JP |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 高位乘法 运算器 低位 相乘 输入值计算 乘法部 累积部 输出 乘法累加运算 系数存储部 积和运算 网络单元 网络装置 乘法 低功耗 高速化 停止位 权重 相加 | ||
一种积和运算器,谋求积和运算的高速化及低功耗。实施方式所涉及的积和运算器具备系数存储部、控制部、高位乘法部、高位累积部、低位乘法部和输出部。高位乘法部针对N个输入值的每个输入值计算将对应的输入值、对应的系数中对象位的值、和对象位的权重相乘后的高位乘法值。高位累积部计算将高位乘法值累积相加后的高位累积值。低位乘法部针对N个输入值的每个输入值计算将对应的输入值和对应的系数中小于停止位的位的值相乘后的低位乘法值。输出部在高位累积值超过边界值的情况下,将超过边界值后的范围的值作为乘法累加运算值进行输出。
发明领域
本发明的实施方式涉及积和运算器、网络单元及网络装置。
背景技术
已知有使用了神经网络(neural network)的深度学习技术。另外,人们还在研究采用专用的硬件进行深度学习的技术。
在神经网络中包含的各单元内,执行积和运算(乘法累加运算)。也就是说,在各单元内,对于从上一级的单元获取到的多个输入值的各个乘以系数,将乘以系数后的多个输入值相加。再者,在各单元内,将这样计算出的值提供给例如sigmoid(S形)函数等的函数。然后,由各单元输出激活函数的输出值。
可是,用硬件实现的神经网络装置必须具备多个这样的单元。为此,在用硬件实现神经网络的情况下,希望各个单元内的处理的高速化及低功耗的兼顾。
发明内容
本发明要解决的问题在于谋求高速化及低功耗。
实施方式所涉及的积和运算器具备系数存储部、控制部、高位乘法部、高位累积部、低位乘法部和输出部。上述系数存储部存储与N个(N为大于等于2的整数)输入值以一对一的形式对应,并且最高位的值表示符号的N个系数。上述控制部将从上述最高位到预定的停止位为止的多个位的每个位指定为对象位。上述高位乘法部针对上述N个输入值的每个输入值,计算将对应的输入值、对应的系数中的上述对象位的值、和上述对象位的权重相乘后的高位乘法值。上述高位累积部计算将上述高位乘法值累积相加后的高位累积值。上述低位乘法部针对上述N个输入值的每个输入值,计算将对应的输入值和对应的系数中小于上述停止位的位的值相乘后的低位乘法值。上述输出部在上述高位累积值超过预先设定的边界值的情况下,将超过上述边界值后的范围的值作为乘法累加运算值进行输出。上述输出部在即便指定上述停止位作为上述对象位而计算上述高位乘法值、上述高位累积值也未超过上述边界值的情况下,将对上述高位累积值加上低位累积值后的值作为乘法累加运算值进行输出,上述低位累积值是将上述低位乘法值累积相加后得到的。
根据上述积和运算器,可以谋求高速化及低功耗。
附图说明
图1是实施方式所涉及的网络单元的结构图。
图2是表示激活函数的一例的图。
图3是积和运算器的结构图。
图4是表示存储在系数存储部中的系数之图像的图。
图5是表示积和运算器的处理的流程图。
图6是表示积和运算器的低位累积值的计算处理的流程图。
图7是表示由第1运算式得到的高位累积值的迁移的一例的图。
图8是表示执行第1运算式的高位乘法部的处理的流程图。
图9是执行第1运算式的高位乘法部的结构图。
图10是表示由第2运算式得到的高位累积值的迁移的一例的图。
图11是表示执行第2运算式的高位乘法部的处理的流程图。
图12是执行第2运算式的高位乘法部的结构图。
图13是表示变形例所涉及的积和运算器的处理的流程图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于株式会社东芝,未经株式会社东芝许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710755161.5/2.html,转载请声明来源钻瓜专利网。