[发明专利]一种基于动物跑台的步态监测方法及系统有效
申请号: | 201911398691.4 | 申请日: | 2019-12-30 |
公开(公告)号: | CN111046848B | 公开(公告)日: | 2020-12-01 |
发明(设计)人: | 杨丰华;谭伟江;李想;郑双;张钰 | 申请(专利权)人: | 广东省实验动物监测所 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06T7/246 |
代理公司: | 广州三环专利商标代理有限公司 44202 | 代理人: | 郭浩辉;麦小婵 |
地址: | 510000 广东省广州市*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 动物 步态 监测 方法 系统 | ||
1.一种基于动物跑台的步态监测方法,其特征在于,包括:
采集动物步态图像,并对所述动物步态图像进行预处理,得到预处理图像;
建立步态识别模型,并通过所述步态识别模型对所述预处理图像中动物的骨架点进行识别,将识别得到的骨架点进行映射得到空间射线并对所述空间射线进行匹配;
在匹配完成后,建立世界坐标系并根据每个动物的骨架点在所述世界坐标系中的位置进行计算得到每个动物的空间平均坐标,将所述空间平均坐标设置为跟踪点;
通过跟踪方法对所述跟踪点在所述世界坐标系中的路径信息进行实时记录,得到步态监测数据;
所述对所述空间射线进行匹配的步骤,具体包括:
设置空间损失阈值,并计算同一个动物中每两个骨架点之间的空间距离;
判断所述空间距离与所述空间损失阈值的数值大小,当所述空间距离大于所述空间损失阈值时,将所述空间距离的值增大两倍后作为实际距离值;当所述空间距离不大于所述空间损失阈值时,将所述空间距离的值作为实际距离值;
将所述实际距离值输入匹配算法进行计算,得到匹配数据。
2.如权利要求1所述的基于动物跑台的步态监测方法,其特征在于,所述对所述动物步态图像进行预处理,得到预处理图像,具体包括:
对所述动物步态图像进行灰度化处理,得到灰度图像;
对所述灰度图像进行高斯滤波处理,得到滤波图像;
对所述滤波图像进行二值化处理,得到预处理图像。
3.如权利要求1所述的基于动物跑台的步态监测方法,其特征在于,所述匹配算法为匈牙利最大匹配算法。
4.如权利要求1所述的基于动物跑台的步态监测方法,其特征在于,所述跟踪方法为欧式距离跟踪方法。
5.如权利要求1所述的基于动物跑台的步态监测方法,其特征在于,所述步态识别模型的建立过程,具体包括:
获取动物图像并对所述动物图像中的骨架点进行标注,将标注后的动物图像作为初始图像,集合为初始图像集;
对所述初始图像集进行复制,得到训练图像集和测试图像集;
通过第三方模型软件建立初始化识别模型;
将所述训练图像集输入所述初始化识别模型进行模型训练,直到训练次数达到预设的训练次数阈值或训练准确度达到预设的训练准确度阈值时,停止模型训练,得到识别训练模型;
将所述测试图像集输入所述识别训练模型进行模型测试,直到测试次数达到预设的测试次数阈值或测试准确度达到预设的测试准确度阈值时,停止模型测试,得到步态识别模型。
6.如权利要求5所述的基于动物跑台的步态监测方法,其特征在于,所述训练次数阈值为30万次,训练准确阈值为95%;所述测试次数阈值为20万次,测试准确阈值为98%。
7.一种基于动物跑台的步态监测系统,其特征在于,包括:
预处理模块,用于采集动物步态图像,并对所述动物步态图像进行预处理,得到预处理图像;
识别匹配模块,用于建立步态识别模型,并通过所述步态识别模型对所述预处理图像中动物的骨架点进行识别,将识别得到的骨架点进行映射得到空间射线并对所述空间射线进行匹配;
坐标建立模块,用于在匹配完成后,建立世界坐标系并根据每个动物的骨架点在所述世界坐标系中的位置进行计算得到每个动物的空间平均坐标,将所述空间平均坐标设置为跟踪点;
路径记录模块,用于通过跟踪方法对所述跟踪点在所述世界坐标系中的路径信息进行实时记录,得到步态监测数据;
所述识别匹配模块用于对所述空间射线进行匹配的步骤,具体包括:
设置空间损失阈值,并计算同一个动物中每两个骨架点之间的空间距离;
判断所述空间距离与所述空间损失阈值的数值大小,当所述空间距离大于所述空间损失阈值时,将所述空间距离的值增大两倍后作为实际距离值;当所述空间距离不大于所述空间损失阈值时,将所述空间距离的值作为实际距离值;
将所述实际距离值输入匹配算法进行计算,得到匹配数据。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东省实验动物监测所,未经广东省实验动物监测所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911398691.4/1.html,转载请声明来源钻瓜专利网。