[发明专利]在硬件中执行核心跨越在审
申请号: | 202210408223.6 | 申请日: | 2017-09-29 |
公开(公告)号: | CN114897132A | 公开(公告)日: | 2022-08-12 |
发明(设计)人: | 雷吉纳尔德·克利福德·扬;威廉·约翰·格兰德 | 申请(专利权)人: | 谷歌有限责任公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/063 |
代理公司: | 中原信达知识产权代理有限责任公司 11219 | 代理人: | 周亚荣;邓聪惠 |
地址: | 美国加利*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 硬件 执行 核心 跨越 | ||
本公开涉及在硬件中执行核心跨越。该方法用于接收请求以在硬件电路上处理神经网络,所述神经网络包括具有大于1的步长的第一卷积神经网络层,和作为响应产生指令,所述指令引起所述硬件电路在处理输入张量期间通过执行下列操作产生等效于所述第一卷积神经网络层的输出的层输出张量,所述操作包括:使用具有等于1否则等效于所述第一卷积神经网络层的步长的第二卷积神经网络层处理所述输入张量以产生第一张量;将如果所述第二卷积神经网络层具有所述第一卷积神经网络层的步长则本就不会被生成的所述第一张量的元素归零以生成第二张量;以及在所述第二张量上执行最大池化以生成所述层输出张量。
分案说明
本申请属于申请日为2017年9月29日的中国发明专利申请201710909648.4的分案申请。
技术领域
本说明书涉及计算硬件中的神经网络推理。
背景技术
神经网络是采用一层或多层为所接收的输入生成输出,例如分类的机器学习模型。除了输出层之外,一些神经网络还包括一个或多个隐藏层。每个隐藏层的输出都被用作网络中另一层,例如网络的下一个隐藏层或输出层的输入。网络的每个层都根据相应参数集的当前值从所接收的输入生成输出。
发明内容
一般而言,本说明书描述了一种计算神经网络推理的专用硬件电路。
一般而言,本说明书中所述的主题的一个创新方面能够被体现为用于接收在硬件电路上处理神经网络的请求的方法和系统,该神经网络包括具有大于1的步长的第一卷积神经网络层,并且作为响应产生指令,当被硬件电路执行时,该指令引起硬件电路在神经网络处理输入张量期间通过执行下列操作产生等效于第一卷积神经网络层的输出的层输出张量,这些操作包括使用具有等于1否则等效于第一卷积神经网络层的步长的第二卷积神经网络层处理对第一卷积神经网络层的输入张量以产生第一张量,将如果第二卷积神经网络层具有第一卷积神经网络层的步长则本就不会被生成的第一张量的元素归零以生成第二张量,以及在第二张量上执行最大池化以生成层输出张量。
实施能够包括一个或多个下列特征。在一些实施中,将第一张量的元素归零包括将第一张量的元素子集乘以0,并且将该子集中未包括的第一张量的元素乘以1。将第一张量的元素归零包括执行掩蔽张量(masking tensor)和第一张量的元素乘法(element-wisemultiplication)以生成第二张量,其中掩蔽张量包括(i)在对应于如果第二卷积神经网络层具有第一卷积神经网络层的步长则本就不会被生成的第一张量的元素的掩蔽张量的每个元素位置处的零,和(ii)在掩蔽张量的每个其它元素位置处的1。在一些实施中,掩蔽张量被存储在可由硬件电路访问的存储器处,并且其中由在硬件电路中所包括的硬件中实施的向量计算单元执行掩蔽张量和第一张量的元素乘法。
实施还能够包括一个或多个下列特征。在一些实施中,对第一张量的元素归零包括执行第一掩蔽张量和第一张量的元素乘法以生成修改的第一张量,其中第一掩蔽张量包括(i)在对应于如果第二卷积神经网络层具有第一卷积神经网络层的步长则本就不会被生成的第一张量的元素的掩蔽张量的每个元素位置处的零,和(ii)在对应于如果第二卷积神经网络层具有第一卷积神经网络层的步长则本就会被生成的第一张量的元素的掩蔽张量的每个元素位置处的相应的非零值,并且执行第二掩蔽张量和修改的第一张量的元素乘法,其中第二掩蔽张量在对应于如果第二卷积神经网络层具有第一卷积神经网络层的步长将生成的第一张量的元素的每个元素位置处都包括第一掩蔽张量的相应的非零值的逆。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于谷歌有限责任公司,未经谷歌有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210408223.6/2.html,转载请声明来源钻瓜专利网。