[发明专利]基于神经网络的毫米波雷达人体动作实时检测方法在审
申请号: | 202111621264.5 | 申请日: | 2021-12-28 |
公开(公告)号: | CN114429672A | 公开(公告)日: | 2022-05-03 |
发明(设计)人: | 谢旭平;卢煜旻;朱欣恩 | 申请(专利权)人: | 浙江芯力微电子股份有限公司 |
主分类号: | G06V40/20 | 分类号: | G06V40/20;G06K9/62;G06N3/04;G06N3/08;G06V10/44;G06V10/774;G06V10/82 |
代理公司: | 嘉兴启帆专利代理事务所(普通合伙) 33253 | 代理人: | 丁鹏 |
地址: | 314199 浙江省嘉兴市*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 神经网络 毫米波 雷达 人体 动作 实时 检测 方法 | ||
1.一种基于神经网络的毫米波雷达人体动作实时检测方法,用于检测人体目标的实时动作,其特征在于,包括以下步骤:
步骤S1:通过毫米波雷达信号获得目标的包括速度、角度和距离的数据信息,并且将获得的速度和距离的数据信息做傅里叶变换,以生成距离和速度频谱图,从而作为第一目标特征;
步骤S2:根据距离和速度频谱,提取毫米波雷达信号获得的空间坐标点云信息,以作为第二目标特征;
步骤S3:将第一目标特征和第二目标特征进行融合并且输入到残差卷积神经网络模型,以进行人体动作的识别分类判断。
2.根据权利要求1所述的一种基于神经网络的毫米波雷达人体动作实时检测方法,其特征在于,步骤S1具体实施为以下步骤:
步骤S1.1:通过毫米波雷达的频率调制连续波信号,并且距离与速度的关系通过以下公式体现:
其中,c为电磁波在空气中的传播速度,R是物体与毫米波雷达之间的距离,v是相对速度,τ是传播时间,并且R和V为:
步骤S1.2:通过以下公式将获得的速度和距离的数据信息做傅里叶变换:
其中b[n,m,k]指第k根天线上接受到的第m个chirp的第n个采样点,Tfast为在一个扫频周期内对信号采样的采样间隔,通过2发4收的毫米波雷达天线,每个扫频周期N取值为256,M取值为128,K为4,帧率是20fps;
对一个扫频周期内的N个采样点做二维离散傅里叶变换得到对应的距离为:
对经过二维傅里叶变换后的数据在天线维度做傅里叶变换,用以下公式:以获得速度和角度频谱图。
3.根据权利要求2所述的一种基于神经网络的毫米波雷达人体动作实时检测方法,其特征在于,步骤S2具体实施为以下步骤:
步骤S2.1:根据距离和速度频谱通过以下公式提取出值为非零的距离频率分量和速度频率分量,公式为:
x=Rsinθ,y=Rcosθ;
从而获得毫米波雷达空间的点云信息,以获得点云图像,进而通过毫米波雷达信号提取的点云图像对应人体在距离毫米波雷达预设距离处的空间点云。
4.根据权利要求3所述的一种基于神经网络的毫米波雷达人体动作实时检测方法,其特征在于,步骤S3具体实施为以下步骤:
步骤S3.1:将第一目标特征作为残差卷积神经网络模型的初始输入图像X1并且将第二目标特征作为残差卷积神经网络模型的初始输入图像X2;
步骤S3.2:初始输入图像X1依次经过五个基本模块,并且每一个基本模块包括两个卷积层、一个标准化层、一个池化层和一个激活层,将整个基本模块计算函数F,那么对应的输出为F(X),下一层的输入Y为上一个基本模块的结果F(X)加上之前对应的X输入等量映射,以获得第一输出,公式为:
Y=F(X)+X;
步骤S3.3:初始输入图像X1依次经过一个卷积层和四个基本模块,并且每一个基本模块包括两个卷积层、一个标准化层、一个池化层和一个激活层,将整个基本模块计算函数F,那么对应的输出为F(X),下一层的输入Y为上一个基本模块的结果F(X)加上之前对应的X输入等量映射,以获得第二输出,公式为:
Y=F(X)+X;
步骤S3.4:将第一输出和第二输出输入融合层进行融合,并且融合层的输出依次通过两个全连接层后输入分类层,以进行人体动作的识别分类判断。
5.根据权利要求4所述的一种基于神经网络的毫米波雷达人体动作实时检测方法,其特征在于,在基本模块中:
标准化层:x为输入层的图像数据,∈,γ,β为0和1之间的标准化参数;
卷积层:
激活层:ReLU(x)=(x)+=max(0,x);
池化层:
out(N,C,h,w)=maxm=0,…,kH-1maxn=0,…,kW-1input(N,C,stride[0]×h+m,stride[1]×w+n)。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江芯力微电子股份有限公司,未经浙江芯力微电子股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111621264.5/1.html,转载请声明来源钻瓜专利网。