[发明专利]一种可配置的卷积神经网络处理器电路有效
申请号: | 202010545278.2 | 申请日: | 2020-06-16 |
公开(公告)号: | CN111507465B | 公开(公告)日: | 2020-10-23 |
发明(设计)人: | 周军;周勇;刘嘉豪;刘青松 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06N3/063 | 分类号: | G06N3/063;G06N3/04;G06N3/08 |
代理公司: | 电子科技大学专利中心 51203 | 代理人: | 吴姗霖 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 配置 卷积 神经网络 处理器 电路 | ||
本发明提供了一种可配置的卷积神经网络处理器电路,包括FIR滤波模块、分窗处理模块和神经网络运算模块,神经网络运算模块包括卷积层、池化层、可配置激活函数层和全连接层,可配置激活函数层包括取绝对值模块、区间判断模块、第一多路选择器、配置模块、地址生成模块、RAM、区间拓展模块和第二多路选择器,所述可配置激活函数层配置sigmoid函数或tanh函数、误差,大大提高处理器的通用性和灵活性;通过结合分层量化与饱和截位,实现每层神经网络量化标准可配置,减少溢出风险;通过复用全连接层的乘积累加运算单元实现FIR滤波功能,采用两阶段数据传输模式传输数据,进一步降低功耗。
技术领域
本发明属于人工智能技术领域,具体涉及一种可配置的卷积神经网络处理器电路。
背景技术
人工智能(Artificial Intelligence,AI)是引领未来的战略性产业,而AI芯片作为整个人工智能领域的关键技术环节,是我国人工智能产业的基础,是实现人工智能突破的重要关卡。深度学习作为发展人工智能的重要途径,与传统计算模式最大的区别就是不需要大规模逻辑编程,但需要海量并行计算,新的计算模式和人工智能时代新计算的强大需求,正在催生出新的专用计算芯片。深度学习算法的成熟、算力提升及大数据共同促进人工智能实现跨越式发展,人工智能应用层出不穷进一步推动算力需求的提升。
深度卷积神经网络是深度学习的代表算法之一,目前已经在软件平台实现并应用,得益于多个深度学习框架的发展,在中央处理器(Central Processing Unit,CPU)或图形处理器(Graphics Processing Unit,GPU)上通过软件编程可以简单方便的实现各种类型的深度卷积神经网络。但是CPU实现深度卷积神经网络的方式无法很好地利用到卷积神经网络算法的并行性特征,因此无法满足大多数应用所需的低时延、低功耗要求。在 GPU上实现卷积神经网络虽然可以很好的利用卷积神经网络算法的并行性特征,从而获得很好的性能,但其过高的功耗无法满足便携式设备的要求。传统专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)专用人工智能计算加速电路,针对某个特定算法,通过专用的电路结构来实现计算,但其可配置性差,无法跟上人工智能算法的高速发展。
发明内容
针对现有技术中存在的问题,本发明提出了一种可配置的卷积神经网络处理器电路,通过配置激活函数层结构和每层神经网络量化标准,大大提升神经网络处理器的通用性、准确度,改进有限脉冲响应(Finite Impulse Response,FIR)滤波模块和分窗处理模块,降低神经网络处理器的芯片面积和功耗。
本发明具体技术方案如下:
一种可配置的卷积神经网络处理器电路,包括FIR滤波模块、分窗处理模块和神经网络运算模块,其特征在于,所述神经网络运算模块包括卷积层、池化层、可配置激活函数层和全连接层,所述可配置激活函数层配置sigmoid函数或tanh函数,还配置误差;
所述可配置激活函数层配置的sigmoid函数或tanh函数拟合公式具体通过以下方式得到:
对输入划分不同区间,要求误差小于,sigmoid函数或tanh函数为,激活函数为;
首先对于,sigmoid函数或tanh函数的拟合过程如下:
当时,对 在0处进行一阶泰勒展开,得到拟合公式,当时,横坐标为,得到首段输入区间;
当函数 时,横坐标为,得到末段输入区间,所述区间对应的拟合公式为;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010545278.2/2.html,转载请声明来源钻瓜专利网。
- 上一篇:粉剂给药装置
- 下一篇:转子运动式手表指示机构及手表