[发明专利]人工智能计算辅助处理装置、方法、存储介质、及终端有效
申请号: | 201880002144.7 | 申请日: | 2018-01-15 |
公开(公告)号: | CN109313663B | 公开(公告)日: | 2023-03-31 |
发明(设计)人: | 肖梦秋 | 申请(专利权)人: | 深圳鲲云信息科技有限公司 |
主分类号: | G06F17/16 | 分类号: | G06F17/16 |
代理公司: | 深圳智汇远见知识产权代理有限公司 44481 | 代理人: | 郑江燕 |
地址: | 518000 广东省深圳市*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 人工智能 计算 辅助 处理 装置 方法 存储 介质 终端 | ||
本发明提供一种人工智能计算辅助处理装置,包括:多个存储模块,存储有待处理数据矩阵;内存,设有零矩阵;控制模块,用于将所述待处理数据矩阵从所述存储模块中取出,并置于所述内存零矩阵中,以令所述待处理数据矩阵能够以其任意一个第一矩阵元素为中心构成尺寸为W*W的待卷积矩阵,供卷积核矩阵按照预设步长进行卷积计算;其中,W为所述卷积核矩阵的尺寸。本发明通过硬件结构搭建补零操作体系,且在内存中预设有零矩阵,供待处理数据矩阵置入即可实现补零操作,无需计算补零的数量或者补零的位置等参数,大大降低了系统的计算量,提升了补零操作的效率,加快了图像处理等操作的响应速度。
技术领域
本发明涉及人工智能领域,特别是涉及人工智能计算辅助处理方法、装置、可读计算机存储介质、及终端。
背景技术
现今,随着人工智能产业的发展,各种人工智能领域的技术随之兴起。其中,卷积神经网络已然成为众多人工智能领域的研究热点。
早在20世纪60年代,就有科学家在研究猫脑皮层中用于局部敏感和方向选择的神经元时发现其独特的网络结构可以有效地降低反馈神经网络的复杂性,继而提出了卷积神经网络。随后,又有更多的科研工作者投入到卷积神经网络的研究中。
通常,为使卷积提取特征值后的矩阵大小与卷积之前的原数据矩阵大小一致,需对原数据矩阵进行补零操作。
但是,现有技术中的补零操作通常都只能通过软件技术进行补零,CPU的计算量非常大,进而导致补零效率非常低。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种工智能计算辅助处理方法、装置、可读计算机存储介质、及终端,用于解决现有技术中补零操作效率低、计算量大等技术问题。
为实现上述目的及其他相关目的,本发明提供一种人工智能计算辅助处理装置,包括:多个存储模块,存储有待处理数据矩阵;内存,设有零矩阵;控制模块,用于将所述待处理数据矩阵从所述存储模块中取出,并置于所述内存零矩阵中,以令所述待处理数据矩阵能够以其任意一个第一矩阵元素为中心构成尺寸为W*W的待卷积矩阵,供卷积核矩阵按照预设步长进行卷积计算;其中,W为所述卷积核矩阵的尺寸。
于本发明的一实施例中,所述待处理数据矩阵包括n*m矩阵,所述零矩阵包括N*M零矩阵;其中,
于本发明的一实施例中,所述将所述待处理数据矩阵从所述存储模块中取出,并置于所述内的零矩阵中,具体包括:所述控制模块将所述n*m矩阵从所述存储模块中取出并置于所述内存的N*M零矩阵中以形成填充矩阵;其中,所述填充矩阵包括:第1至第行,第/至第N行为零;第1至第/列,第/至第M列为零;其他区域为所述n*m矩阵。
于本发明的一实施例中,所述将所述待处理数据矩阵从所述存储模块中取出,并置于所述内的零矩阵中,具体方式包括:所述n*m矩阵分为多个尺寸相同的分块矩阵;所述控制模块依次取出各所述分块矩阵,并按照预设放置条件将各所述分块矩阵填入所述N*M零矩阵中。
于本发明的一实施例中,所述预设放置条件包括:所述控制模块根据所述内存中的预设起始地址以及所述分块矩阵的尺寸,依次将各所述分块矩阵置入所述N*M零矩阵中。
于本发明的一实施例中,所述存储模块包括双存储模块。
于本发明的一实施例中,所述人工智能计算辅助处理装置包括:乘法器,用于将每个所述待卷积矩阵分别与卷积核相乘,得到相应的乘法结果矩阵;其中,各所述乘法结果矩阵与各所述第一矩阵元素对位;加法器,用于将每个所述乘法结果矩阵中的第二矩阵元素相加,得到相应的卷积结果值;其中,各所述卷积结果值与各所述第一矩阵元素对位,以组成尺寸为n*m的卷积结果矩阵。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳鲲云信息科技有限公司,未经深圳鲲云信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201880002144.7/2.html,转载请声明来源钻瓜专利网。