[发明专利]多芯片互连系统及神经网络加速处理方法在审
申请号: | 202111494734.6 | 申请日: | 2021-12-09 |
公开(公告)号: | CN113902111A | 公开(公告)日: | 2022-01-07 |
发明(设计)人: | 王赟;张官兴;郭蔚;黄康莹;张铁亮 | 申请(专利权)人: | 绍兴埃瓦科技有限公司 |
主分类号: | G06N3/063 | 分类号: | G06N3/063;G06N3/04;G06N5/04 |
代理公司: | 北京清大紫荆知识产权代理有限公司 11718 | 代理人: | 黎飞鸿;冯振华 |
地址: | 311800 浙江省绍兴市陶朱*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 芯片 互连 系统 神经网络 加速 处理 方法 | ||
本发明提供了一种多芯片互连系统及神经网络加速处理方法,应用于人工智能技术领域,其中多芯片互连系统包括若干桥接器和至少两个加速芯片,每个加速芯片均通过桥接器与其余加速芯片进行互连,以构成板上芯片组对神经网络进行加速处理。通过多芯片互连构成板上芯片组,为小算力加速处理器实现大规模算法模型运算提供了技术基础,可提高终端、边缘计算等设备应用神经网络的应用可能。
技术领域
本发明涉及人工智能技术领域,具体涉及一种多芯片互连系统及神经网络加速处理方法。
背景技术
随着AI(Artificial Intelligence,人工智能)技术在各领域(如算法、加速硬件等)的发展,卷积神经网络模型已被大规模应用到各行各业中,如人脸识别、安防监控、自动驾驶、语音识别等领域。
如图1所示,卷积神经网络的宏观结构主要包含输入层、隐藏层和输出层,其中输入层为上一层特征数据经卷积、池化、激活后的特征数据,如输入的特征向量x1至特征向量xn;隐藏层包含若干数量、不同结构的卷积层、池化层和全连接层等网络,如突触权值wk1至wkn;输出层通常是特征向量输出层通过全连接层使用逻辑函数或归一化指数函数(如softmax function作为激活函数)分类概率输出层,输出结果yk;其中全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来,比如通过求和节点,根据各个权值wk1-wkn和偏置bk得到全连接层输出Vk。
现有应用方案中,虽然终端(如智能电子设备)、边缘计算等设备可以支持基于神经网络模型的加速推理运算,但是鉴于目前单芯片的算力、主存大小等方面均很难支持大规模神经网络模型,因而现有终端、边缘计算等设备中用于推理的加速器芯片,均是基于特定的小规模、简单神经网络模型设计,这时基于GPU(Graphics Processing Unit,图形处理器)或TPU(Tensor Processing Unit,张量处理单元)等生产的超大规模(如上百兆)或大模型(如几十兆)等复杂神经网络,却无法部署到现有终端、边缘计算等设备中,或者即使部署成功亦无法满足实时加速推理运算要求。
因此,亟需一种新的多芯片互连方案,以将大规模神经网络模型应用于多芯片互连后的终端、边缘计算等设备中。
发明内容
有鉴于此,本说明书实施例提供一种多芯片互连系统及神经网络加速处理方法,以支持大规模神经网络模型应用于终端、边缘计算等设备中,满足这些设备对神经网络加速推理运算要求。
本说明书实施例提供以下技术方案:
本说明书实施例提供一种多芯片互连系统,应用于神经网络的加速推理运算,所述多芯片互连系统包括:若干桥接器和至少两个加速芯片,每个加速芯片均通过桥接器与其余加速芯片进行互连,以构成板上芯片组对神经网络进行加速处理,其中芯片组中的加速芯片加载至少一个网络单元,所述网络单元为神经网络被按预设的分拆策略进行分拆后形成的网络单元。
在其中一个实施例中,每个所述桥接器用于各加速芯片中相同链路端口编号的互连,其中每个加速芯片中各个链路端口按序编号。
在其中一个实施例中,所述桥接器与每个设备的两个或两个以上端口相连。
在其中一个实施例中,所述分拆策略包括以下一种分拆方式:沿模型深度方向纵向拆分、沿模型深度方向横向拆分、沿模型深度方向纵向及横向拆分。
在其中一个实施例中,所述至少两个加速芯片包括第一主加速芯片和第一从加速芯片,其中所述第一主加速芯片和所述第一从加速芯片构成第一主从设备模式。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于绍兴埃瓦科技有限公司,未经绍兴埃瓦科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111494734.6/2.html,转载请声明来源钻瓜专利网。