[发明专利]状态识别模型训练方法、状态识别方法、装置及设备在审
申请号: | 202210733116.0 | 申请日: | 2022-06-24 |
公开(公告)号: | CN115116617A | 公开(公告)日: | 2022-09-27 |
发明(设计)人: | 王昊;杨明川;李伟 | 申请(专利权)人: | 中国电信股份有限公司 |
主分类号: | G16H50/50 | 分类号: | G16H50/50;G06F30/27;G06K9/62;A61B5/00;A61B5/0205;A61B5/024;A61B5/08;A61B5/145;A61B5/318;A61M21/02 |
代理公司: | 北京律智知识产权代理有限公司 11438 | 代理人: | 孙宝海 |
地址: | 100033 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 状态 识别 模型 训练 方法 装置 设备 | ||
1.一种状态识别模型训练方法,其特征在于,所述方法包括:
根据待建模对象对接触式信息采集装置执行的接触操作,采集所述待建模对象的直接检测信息;以及获取非接触式信息采集装置采集的所述待建模对象的间接检测信息;
对所述直接检测信息进行状态识别处理,得到样本状态识别结果;
将所述间接检测信息输入初始状态识别模型中进行预测,得到样本状态预测结果;
根据所述样本状态预测结果与所述样本状态识别结果之间的损失值对所述初始状态识别模型进行参数调整,得到状态识别模型。
2.根据权利要求1所述的方法,其特征在于,所述将所述间接检测信息输入初始状态识别模型中进行预测,得到样本状态预测结果,包括:
将所述间接检测信息输入至所述初始状态识别模型的编码网络进行编码处理,得到所述编码网络输出的编码向量;
对所述编码向量进行自注意力权重计算,得到自注意力权重,并通过所述注意力权重调整所述编码向量,得到自注意力编码向量;
将所述自注意力编码向量输入至所述初始状态识别模型的解码网络进行解码处理,得到所述解码网络输出的样本状态预测结果。
3.根据权利要求2所述的方法,其特征在于,所述间接检测信息包括图像信息、音频信息和文本信息,所述自注意力编码向量包括图像自注意力编码向量、音频自注意力编码向量和文本自注意力编码向量;所述将所述自注意力编码向量输入至所述初始状态识别模型的解码网络进行解码处理,得到所述解码网络输出的样本状态预测结果,包括:
根据所述图像自注意力编码向量、所述音频自注意力编码向量和所述文本自注意力编码向量分别对应的信息权重,对所述图像自注意力编码向量、所述音频自注意力编码向量和所述文本自注意力编码向量进行融合处理,得到融合向量;
对所述融合向量进行分类处理,得到样本状态预测结果。
4.根据权利要求1所述的方法,其特征在于,所述直接检测信息包括所述待建模对象的脉搏信息;所述对所述直接检测信息进行状态识别处理,得到样本状态识别结果,包括:
根据所述脉搏信息计算所述待建模对象的心率信息以及呼吸信息;
根据所述心率信息与所述呼吸信息之间的互谱功率以及相干性,得到所述待建模对象的心肺耦合动力学频谱;
根据所述心肺耦合动力学频谱确认所述样本状态识别结果。
5.根据权利要求1至4任一项所述的方法,其特征在于,在所述根据所述样本状态预测结果与所述样本状态识别结果之间的损失值对所述初始状态识别模型进行参数调整,得到状态识别模型之后,所述方法还包括:
接收状态描述信息,所述状态描述信息用于描述所述待建模对象的状态;
根据所述状态描述信息对所述状态识别模型进行更新,得到更新后的状态识别模型。
6.根据权利要求5所述的方法,其特征在于,所述根据所述状态描述信息对所述状态识别模型进行更新,得到更新后的状态识别模型,包括:
检测所述状态描述信息与所述样本状态识别结果是否匹配;
若不匹配则获取所述状态描述信息对应的描述时间段;
获取处于所述描述时间段内的间接检测信息;
将所述描述时间段内的间接检测信息输入所述状态识别模型中进行预测,得到样本状态更新预测结果;
根据所述样本状态更新预测结果与所述状态描述信息之间的损失值对所述状态识别模型进行参数调整,得到更新后的状态识别模型。
7.一种状态识别方法,其特征在于,所述方法包括:
获取非接触式信息采集装置采集的待识别对象的间接检测信息;
将所述间接检测信息输入至状态识别模型中进行状态识别处理;其中,所述状态识别模型根据权利要求1至6中任一项所述的状态识别模型训练方法得到;
获取所述状态识别模型输出的目标状态识别结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国电信股份有限公司,未经中国电信股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210733116.0/1.html,转载请声明来源钻瓜专利网。