[发明专利]一种用于LDPC码的自学习归一化偏置最小和译码方法有效
申请号: | 202010279781.8 | 申请日: | 2020-04-10 |
公开(公告)号: | CN111565051B | 公开(公告)日: | 2022-11-25 |
发明(设计)人: | 戴金晟;牛凯;谭凯林 | 申请(专利权)人: | 北京邮电大学 |
主分类号: | H03M13/11 | 分类号: | H03M13/11 |
代理公司: | 北京风雅颂专利代理有限公司 11403 | 代理人: | 张拥 |
地址: | 100876 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 ldpc 自学习 归一化 偏置 最小 译码 方法 | ||
1.一种用于LDPC码的自学习归一化偏置最小和译码方法,其特征在于,包括:
建立LDPC码译码训练样本集;
建立深度学习模型;
利用LDPC码译码训练样本集,并采用随机梯度下降的训练方法对所述深度学习模型进行训练,得到训练好的参数;
将所述训练好的参数代入到归一化偏置最小和译码算法中进行译码;
其中,所述LDPC码具有特殊的QC结构,其奇偶校验矩阵是由基图经过扩展和循环移位得到的;
其中,所述建立LDPC码译码训练样本集的步骤包括:
选择基图,根据码长确定提升值Z,得到奇偶校验矩阵,再得到对应生成矩阵,等概0、1信源比特信息序列Y与对应生成矩阵相乘后得到信息比特序列X;
信息比特序列X经过二进制相移键控加入高斯白噪声,初始化后得到带高斯噪声的信息比特序列,最后转化成相应的对数似然比信息序列X',以作为LDPC码译码的训练样本集;
其中,所述建立深度学习模型的步骤包括:
通过置信度传播算法中变量节点到校验节点的横向更新和校验节点到变量节点的纵向更新过程,单步展开,根据LDPC码的特性,一个校验节点只与它相关联的变量节点有关,网络的连接方式为非全链接,建立深度学习模型;
其中,所述深度学习模型中,神经网络中每两层对应一次迭代译码,神经网络中间层的数目为最大迭代译码次数的两倍,对神经网络的中间层从1开始编号,每层神经元个数为基图中为“1”的元素个数,奇数层为变量节点更新层,奇数层连接输出层,偶数层为校验节点更新层和输出层;
其中,所述深度学习模型的激活函数由归一化偏置最小和译码算法中节点更新公式决定,其中,奇数层激活函数由变量节点更新公式决定,偶数层由校验节点更新公式决定,输出的对数似然比用sigmoid函数归一化到(0,1)值域上,损失函数为交叉熵函数,优化算法为ADAM算法。
2.根据权利要求1所述的用于LDPC码的自学习归一化偏置最小和译码方法,其特征在于,变量节点更新公式为:
其中,为在第i次迭代译码中从校验节点c到变量节点v的似然信息,是一个矢量,因为每个神经元处理的是一个Z长度序列;代表与校验节点c相邻的变量节点集合,代表与校验节点c相邻的包括变量结点v的变量节点集合,为第i轮迭代译码待训练的权重,初始化为1,为带训练的偏置,初始化为0;
ReLU(x)=max(x,0)
校验节点更新公式为:
其中,为在第i次迭代译码中从校验节点c到变量节点v的似然信息,代表与变量节点v相邻的校验节点集合,代表与变量节点v相邻的不包括校验变结点c的校验节点集合,LLRv为固有的似然信息;
输出似然信息的公式为:
其中,Sv为变量节点输出的似然信息,可以直接作软判决得到译码比特序列,LLRv为固有的似然信息;
输出层的激活函数为sigmoid函数为:
交叉熵函数为:
其中,X为输出的似然信息序列,S为调制前的信息比特序列,N为序列长度。
3.根据权利要求1所述的用于LDPC码的自学习归一化偏置最小和译码方法,其特征在于,所述采用随机梯度下降的训练方法对深度学习模型进行训练,得到训练好的参数的步骤包括:
设定最大训练数和每个batch中的样本数;
逐层训练权重和偏置,进行迭代次数为1的译码,只用深度学习模型的前两层,每个batch输入后对第一个奇数层的权重w和偏置b进行调整,当第一层训练完之后把第一个奇数层的权重w和偏置b固定下来,再进行第二层的训练,以此类推直到达到最大迭代次数;
训练完成后,取出每轮迭代中的权重和偏置,保存下来。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京邮电大学,未经北京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010279781.8/1.html,转载请声明来源钻瓜专利网。
- 上一篇:温度补偿酒精检测方法和酒精检测仪器
- 下一篇:光纤使能光无线通信系统及方法
- 同类专利
- 专利分类