[发明专利]基于语音特征复用的关键词唤醒CNN的存储和计算压缩方法有效
申请号: | 202010092688.6 | 申请日: | 2020-02-14 |
公开(公告)号: | CN111341306B | 公开(公告)日: | 2022-06-17 |
发明(设计)人: | 单伟伟 | 申请(专利权)人: | 东南大学 |
主分类号: | G10L15/16 | 分类号: | G10L15/16;G10L15/22;G06N3/04;G06N3/08 |
代理公司: | 南京经纬专利商标代理有限公司 32200 | 代理人: | 熊玉玮 |
地址: | 210096 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 语音 特征 关键词 唤醒 cnn 存储 计算 压缩 方法 | ||
本发明公开了基于语音特征复用的关键词唤醒CNN的存储和计算压缩方法,属于计算、推算或计数的技术领域。若输入数据更新的行数与卷积步长相等,每一次新的输入数据到来时,神经网络输入层用新的输入数据替换最早的那部分输入数据,同时调整输入数据的取址顺序,使其按照输入数据到来先后的顺序依次与对应的卷积核做运算,运算的结果存入神经网络的中间数据存储器,使其更新相应的数据。本方法语音应用中相邻两帧输入数据的计算会有大量重复导致的卷积计算中存在大量重复计算的特点,剔除掉重复的计算,从而减小神经网络的计算量,对神经网络中的数据的存储和计算量进行了极大的压缩,可有效降低神经网络计算的数据量和存储量,极大地降低了神经网络电路的功耗。
技术领域
本发明涉及低功耗电路设计,尤其是低功耗的关键词唤醒电路的存储和计算压缩设计,具体涉及基于语音特征复用的关键词唤醒CNN的存储和计算压缩方法,属于计算、推算或计数的技术领域。
背景技术
关键词唤醒技术,是语音识别技术的一个重要分支,通常作为语音识别的入口而存在,主要用于叫醒机器。关键词唤醒技术与通用语音识别技术的不同之处在于,它只需识别语音信号中是否包含某一个或某些特定词汇,而并非需要完整识别整段语音信号的语义;并且它扮演的是设备开关的角色,必须常开状态,因此,其功耗就显得极为重要。设计出资源占用小、功耗低的关键词唤醒电路非常有必要。
端到端神经网络关键词唤醒系统是一种新型的关键词唤醒系统,语音信号到输出结果的识别过程就是一个神经网络的正向推理过程,通常采用卷积神经网络(CNN,Convolutional Neural Network)实现。由此,神经网络电路的低功耗设计很必要。通常在神经网络处理器的设计中,由于并行的计算量巨大,需调用的参数及中间数据也随之剧增,这通常会导致处理器频繁地访问存储模块,使得访存功耗成为神经网络处理器功耗的主要来源之一。所以,在很多的设计中,通常会重点研究分析神经网络的并行计算特点,研究如何通过合理的数据复用来减少访问存储次数,以降低神经网络处理器的功耗进而提升其能效,常见的数据复用模式有输入数据复用和存储复用两种。
本发明基于卷积神经网络的并行计算特点,通过语音特征数据流复用的方式来减少访问存储次数,同时降低了神经网络计算量,从而降低了神经网络电路的功耗,使得神经网络在常开状态下保持极低的功耗运行状态并完成关键词唤醒功能,提升了电路的能量效率。
发明内容
本发明的发明目的是针对上述背景技术中的不足,提供了基于语音特征复用的关键词唤醒CNN的存储和计算压缩方法,适用于卷积神经网络及其变形,例如深度可分离卷积神经网络(DSCNN,Deep Separable Convolutional Neural Network),通过压缩存储和计算量来有效降低电路的功耗。
本发明为实现上述发明目的采用如下技术方案:
本发明重点研究了语音应用中的关键词识别电路中的神经网络的计算特点,专门针对于卷积计算在语音处理中的特点,使用了语音特征数据流复用的方式,显著降低了存储量和计算次数。此处的卷积计算包含传统的卷积神经网络及其变形,例如通道可分离卷积神经网络(DSCNN),双方共同的特点是卷积核的尺寸小于输入数据的尺寸,每一次卷积运算仅计算一部分输入数据,整体输入数据需要若干次卷积计算才能完成。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东南大学,未经东南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010092688.6/2.html,转载请声明来源钻瓜专利网。