[发明专利]基于视觉和语音融合技术的抽动障碍症病情监测方法及其系统在审
申请号: | 202010729476.4 | 申请日: | 2020-07-27 |
公开(公告)号: | CN111870253A | 公开(公告)日: | 2020-11-03 |
发明(设计)人: | 周文举;韩小飞;费敏锐;王海宽;何钰 | 申请(专利权)人: | 上海大学 |
主分类号: | A61B5/11 | 分类号: | A61B5/11;G10L25/66;G06K9/00;G06K9/62;G06F16/783;H04N5/76;G08B25/00 |
代理公司: | 上海智信专利代理有限公司 31002 | 代理人: | 王洁;郑暄 |
地址: | 200044*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 视觉 语音 融合 技术 抽动 障碍 病情 监测 方法 及其 系统 | ||
1.一种基于视觉和语音融合技术的抽动障碍症病情监测方法,其特征在于,所述的监测方法包括以下步骤:
(1)持续获取被监测人的图像和声音信息并对被监测人发生运动和发声抽动进行实时判断;
(2)根据步骤(1)中的被监测人发生运动和发声抽动的实时判断结果,将获得的抽动信息保存至数据库中;
(3)根据被监测人数据库信息诊断病情,将诊断依据和诊断结果及时向相关人员反馈,并持续监测。
2.根据权利要求1所述的基于视觉和语音融合技术的抽动障碍症病情监测方法,其特征在于,所述的步骤(1)具体包括以下步骤:
(1.1)通过图像和声音传感器实时获取被监测人的图像信息和声音信息;
(1.2)制作被监测人运动抽动和发声抽动匹配模板;
(1.3)实时匹配并判断被监测人是否发生运动抽动和发声抽动,若是,判定发生抽动并继续步骤(2),若否,则返回步骤(1.1)继续监测。
3.根据权利要求2所述的基于视觉和语音融合技术的抽动障碍症病情监测方法,其特征在于,所述的步骤(1.1),具体为:
通过图像传感器实时获取被监测人的肢体、面部动作等图像信息,通过声音传感器实时获取被监测人的发声信息。
4.根据权利要求2所述的基于视觉和语音融合技术的抽动障碍症病情监测方法,其特征在于,所述的步骤(1.2),具体为:
人工选择含有被监测人明确的神经性肢体、面部抽动信息和神经性发声信息作为匹配模板,每段模板大小及格式属性可为适应不同的被监测人而灵活调整,每段模板信息会被添加到不同的动作分类标签,每类动作标签对应不止一个具有该动作特征的图像模板,且该类标签的不同的图像信息具有不同的抽动强度和单次抽动频次的相关信息。
5.根据权利要求2所述的基于视觉和语音融合技术的抽动障碍症病情监测方法,其特征在于,所述的实时匹配并判断被监测人是否发生运动抽动和发声抽动,具体为:
对由图像和声音传感器实时获得的图像信息和声音进行特征提取筛选,处理后的信息与所述的匹配模板进行学习匹配,若匹配相似度达到预设的阈值,则判定当前动作为该类模板所对应的动作抽动或者发声抽动,并返回发生运动抽动和发声抽动的判断结果;若无合适匹配结果则返回未发生运动抽动和发声抽动的判断结果。
6.根据权利要求1所述的基于视觉和语音融合技术的抽动障碍症病情监测方法,其特征在于,所述的将获得的抽动信息保存至数据库中,具体为:
将被监测人判定为神经性运动抽动和发声性抽动的图像信息和声音信息保存至被监测人数据库中。
7.根据权利要求1所述的基于视觉和语音融合技术的抽动障碍症病情监测方法,其特征在于,所述的根据被监测人数据库信息诊断病情,将诊断依据和诊断结果及时向相关人员反馈,具体为:
所述的被监测人数据库信息更新和分析完成之后会及时反馈给医护人员、病人家属,当病情变化特别剧烈时可以及时的向医护人员发出报警信号和远程诊断请求。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海大学,未经上海大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010729476.4/1.html,转载请声明来源钻瓜专利网。