[发明专利]基于轻量级神经网络的调制识别方法有效
申请号: | 202110271141.7 | 申请日: | 2021-03-12 |
公开(公告)号: | CN113114599B | 公开(公告)日: | 2022-01-11 |
发明(设计)人: | 金燕华;王童樾;李君超;阎啸;李秋雪 | 申请(专利权)人: | 电子科技大学 |
主分类号: | H04L27/00 | 分类号: | H04L27/00;G06N3/04;G06N3/08 |
代理公司: | 成都行之专利代理事务所(普通合伙) 51220 | 代理人: | 温利平 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 轻量级 神经网络 调制 识别 方法 | ||
1.一种基于轻量级神经网络的调制识别方法,其特征在于,包括以下步骤:
S1:根据需要确定进行调制识别的调制类别,记其数量为N,对每个调制类别分别采集若干个预设长度L的IQ信号样本,将每个IQ信号样本经维度转换得到大小为1×2×L的三维IQ信号样本,并标注其对应的调制类别标签;
S2:构建基于轻量级神经网络的调制识别模型,包括自注意力模块和轻量级神经网络SK-Resnext18,自注意力模块用于对输入的IQ信号数据进行处理得到自注意力特征图,然后将自注意力特征图输入至轻量级神经网络SK-Resnext18进行调制识别;
轻量级神经网络SK-Resnext18包括级联的输入层、4个功能层和输出层,每个功能层分别包括级联的2个瓶颈层:BottleNeck1和BottleNeck2,其中:
瓶颈层BottleNeck1的结构包括两个分支和add层,其中第一分支包括第一卷积层Conv1、第一批量归一化层BN1、第一Relu激活函数层Relu1、第二卷积层Conv2、第一枢纽层Cardinal1、第三卷积层Conv3、第二枢纽层Cardinal2、拼接层Concatenate、第四卷积层Conv4、第二批量归一化层BN2,其中:
第一卷积层Conv1的卷积核个数为64,卷积核的尺寸为1×1,步长为1,用于对所接收到的特征数据进行卷积操作后发送至第一归一化层BN1;
第一批量归一化层BN1用于对从第一卷积层Conv1接收到的特征数据进行批量归一化,将处理结果发送至第一Relu激活函数层Relu1;
第一Relu激活函数层Relu1,用于对从第一批量归一化层BN1接收到的特征数据采用Relu激活函数进行处理,将处理结果发送至第二卷积层Conv2和第三卷积层Conv3;
第二卷积层Conv2的卷积核个数为128,卷积核的尺寸为3×2,步长为1,用于对从第一Relu激活函数层Relu1接收到的特征数据进行卷积操作后发送第一枢纽层Cardinal1;
第一枢纽层Cardinal1用于对从第二卷积层Conv2接收到的特征数据采用拆分注意力机制进行处理,将处理结果发送至拼接层Concatenate;
第三卷积层Conv3的卷积核个数为128,卷积核的尺寸为3×2,步长为1,用于对从第一Relu激活函数层Relu1接收到的特征数据进行卷积操作后发送第二枢纽层Cardinal1;
第二枢纽层Cardinal2用于对从第三卷积层Conv2接收到的特征数据采用拆分注意力机制进行处理,将处理结果发送至拼接层Concatenate;
拼接层Concatenate用于将从第一枢纽层Cardinal1和第二枢纽层Cardinal2接收到的特征数据进行通道数合并,将合并后的特征数据发送至第四卷积层Conv4;
第四卷积层Conv4的卷积核个数为64,卷积核的尺寸为3×2,步长为1,用于对从拼接层Concatenate接收到的特征数据进行卷积操作后发送第二批量归一化层BN2;
第二批量归一化层BN2用于对从第四卷积层Conv4接收到的特征数据进行批量归一化,将处理结果发送至Add层;
瓶颈层BottleNeck1的第二分支包括平均池化层Average Pooling、第五卷积层Conv5和第三批量归一化层BN3,其中:
平均池化层用于对接收到的特征数据进行平均池化,将处理结果发送至第五卷积层Conv5;
第五卷积层Conv5的卷积核个数为64,卷积核的尺寸为1×1,步长为1,用于对从平均池化层接收到的特征数据进行卷积操作后发送至第三批量归一化层BN3;
第三批量归一化层BN3用于对从第五卷积层Conv5接收到的特征数据进行批量归一化,将处理结果发送至叠加层Add;
叠加层Add用于将从第二批量归一化层BN2和第三批量归一化层BN3所接收到的特征数据叠加后作为瓶颈层BottleNeck1的特征数据进行输出;
瓶颈层BottleNeck2包括第一卷积层Conv1、第一批量归一化层BN1、第一Relu激活函数层Relu1、第二卷积层Conv2、第一枢纽层Cardinal1、第三卷积层Conv3、第二枢纽层Cardinal2、拼接层Concatenate、第四卷积层Conv4、第二批量归一化层BN2和叠加层Add,其中:
第一卷积层Conv1的卷积核个数为64,卷积核的尺寸为1×1,步长为1,用于对所接收到的特征数据进行卷积操作后发送至第一归一化层BN1;
第一批量归一化层BN1用于对从第一卷积层Conv1接收到的特征数据进行批量归一化,将处理结果发送至第一Relu激活函数层Relu1;
第一Relu激活函数层Relu1,用于对从第一批量归一化层BN1接收到的特征数据采用Relu激活函数进行处理,将处理结果发送至第二卷积层Conv2和第三卷积层Conv3;
第二卷积层Conv2的卷积核个数为128,卷积核的尺寸为3×2,步长为1,用于对从第一Relu激活函数层Relu1接收到的特征数据进行卷积操作后发送第一枢纽层Cardinal1;
第一枢纽层Cardinal1用于对从第二卷积层Conv2接收到的特征数据采用拆分注意力机制进行处理,将处理结果发送至拼接层Concatenate;
第三卷积层Conv3的卷积核个数为128,卷积核的尺寸为3×2,步长为1,用于对从第一Relu激活函数层Relu1接收到的特征数据进行卷积操作后发送第二枢纽层Cardinal1;
第二枢纽层Cardinal2用于对从第三卷积层Conv2接收到的特征数据采用拆分注意力机制进行处理,将处理结果发送至拼接层Concatenate;
拼接层Concatenate用于将从第一枢纽层Cardinal1和第二枢纽层Cardinal2接收到的特征数据进行通道数合并,将合并后的特征数据发送至第四卷积层Conv4;
第四卷积层Conv4的卷积核个数为64,卷积核的尺寸为1×1,步长为1,用于对从拼接层Concatenate接收到的特征数据进行卷积操作后发送第二批量归一化层BN2;
第二批量归一化层BN2用于对从第四卷积层Conv4接收到的特征数据进行批量归一化,将处理结果发送至叠加层Add;
叠加层Add用于将输入瓶颈层BottleNeck2的特征数据和从第二批量归一化层BN2所接收到的特征数据叠加后作为瓶颈层BottleNeck2的特征数据进行输出;
S3:采用步骤S1中的三维IQ信号样本作为步骤S2中所构建的基于轻量级神经网络的调制识别模型的输入,对应的调制类别标签作为期望输出,对基于轻量级神经网络的调制识别模型进行训练,得到训练好的调制识别模型;
S4:对于需要进行调制识别的调制信号,采集预设长度L的IQ信号并进行维度转换得到大小为1×2×L的三维IQ信号,将该三维IQ信号输入步骤S3中训练好的调制识别模型中,得到调制识别结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110271141.7/1.html,转载请声明来源钻瓜专利网。