[发明专利]基于CFFH/DS系统的帧同步方法及装置有效
申请号: | 202010219592.1 | 申请日: | 2020-03-25 |
公开(公告)号: | CN111585611B | 公开(公告)日: | 2021-03-26 |
发明(设计)人: | 杨烜赫;安建平;王帅;罗士荀;贺梦尧;金鑫;马啸;崔灿;宋哲;方金辉 | 申请(专利权)人: | 北京理工大学 |
主分类号: | H04B1/7156 | 分类号: | H04B1/7156;H04L27/26;H04L27/38 |
代理公司: | 北京路浩知识产权代理有限公司 11002 | 代理人: | 李文清 |
地址: | 100081 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 cffh ds 系统 同步 方法 装置 | ||
1.一种基于CFFH/DS系统的帧同步方法,其特征在于,包括:
获取目标信号的基带信号,并从所述基带信号中抽取多路第一类信号,所述第一类信号的数据采样率为一倍码片速率;
对每路第一类信号分别进行解扩,并将每路第一类信号中属于同一跳频点的数据分别进行相干累积,每路第一类信号得到的和数据存储至对应的存储器内,当所述存储器中倒数第二个存储位置被占用后,开始读取目标和数据,基于所述目标和数据确定频偏估计值以及时延估计值,对每个存储器中存储的和数据进行频偏补偿和时延补偿,并确定所述目标信号的帧同步头位置;所述目标和数据为目标第一类信号对应的存储器中存储的和数据;
将频偏补偿和时延补偿后得到的结果分别与已知的帧同步头序列相乘,并将每个相乘结果中的所有符号中的数据进行相干累积,并基于相干累积的结果,确定所述目标信号的码偏估计值。
2.根据权利要求1所述的基于CFFH/DS系统的帧同步方法,其特征在于,所述基于所述目标和数据确定频偏估计值以及时延估计值,对每个存储器中存储的和数据进行频偏补偿和时延补偿,并确定所述目标信号的帧同步头位置,具体包括:
构建频偏补偿矩阵,基于所述频偏补偿矩阵,对所述目标和数据进行第一轮残余频偏搜索,并基于第一轮残余频偏搜索的结果对所述目标和数据进行第一轮时延搜索,确定时延和频偏的第一类二维搜索平面;
基于所述第一类二维搜索平面,确定第一轮频偏估计值以及第一轮时延估计值,并确定所述目标信号的帧同步头位置;
确定所述帧同步头位置后,基于所述第一轮频偏估计值以及所述第一轮时延估计值,对每个存储器中存储的和数据进行第一轮频偏补偿和第一轮时延补偿。
3.根据权利要求2所述的基于CFFH/DS系统的帧同步方法,其特征在于,所述基于所述目标和数据确定频偏估计值以及时延估计值,对每个存储器中存储的和数据进行频偏补偿和时延补偿,还包括:
对所述目标和数据经第一轮频偏补偿和第一轮时延补偿的结果进行第二轮残余频偏搜索,并基于第二轮残余频偏搜索的结果进行第二轮时延搜索,确定时延和频偏的第二类二维搜索平面;
基于所述第二类二维搜索平面,确定第二轮频偏估计值以及第二轮时延估计值;
基于所述第二轮频偏估计值以及所述第二轮时延估计值,分别对每个存储器中存储的和数据进行第二轮频偏补偿和第二轮时延补偿。
4.根据权利要求2所述的基于CFFH/DS系统的帧同步方法,其特征在于,所述基于所述频偏补偿矩阵,对所述目标和数据进行第一轮残余频偏搜索,并基于第一轮残余频偏搜索的结果对所述目标和数据进行第一轮时延搜索,具体包括:
将所述目标和数据中的每个符号分别与所述频偏补偿矩阵相乘,对所述目标和数据中的每个符号进行频偏补偿,并将频偏补偿的结果与所述已知的帧同步头序列相乘,将相乘的结果按照跳频点进行相干累积;
将相干累积的结果按频点补偿不同的时延,对所述目标和数据进行所述第一轮时延搜索。
5.根据权利要求2所述的基于CFFH/DS系统的帧同步方法,其特征在于,所述基于所述第一类二维搜索平面,确定第一轮频偏估计值以及第一轮时延估计值,并确定所述目标信号的帧同步头位置,具体包括:
将所述第一类二维搜索平面上的数据进行取模,将最大的模与预设门限值进行比较,若判断获知最大的模大于所述预设门限值,则确定所述目标和数据为所述目标信号的帧同步头,并确定所述目标信号的帧同步头位置,且根据最大的模对应的所述第一类二维搜索平面的横坐标和纵坐标,确定所述第一轮频偏估计值以及所述第一轮时延估计值。
6.根据权利要求5所述的基于CFFH/DS系统的帧同步方法,其特征在于,还包括:
若判断获知最大的模小于等于所述预设门限值,则更新所述目标和数据的读取位置,并基于更新后的读取位置,读取所述目标第一类信号对应的存储器中存储的目标和数据。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010219592.1/1.html,转载请声明来源钻瓜专利网。