[发明专利]一种基于卷积神经网络的人体行为识别方法及识别系统在审
申请号: | 201810083701.4 | 申请日: | 2018-01-29 |
公开(公告)号: | CN108345846A | 公开(公告)日: | 2018-07-31 |
发明(设计)人: | 徐文超;庞雨欣;杨艳琴;陈晓琛;宋凡迪;黄雪峰 | 申请(专利权)人: | 华东师范大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 上海麦其知识产权代理事务所(普通合伙) 31257 | 代理人: | 董红曼 |
地址: | 200062 上*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积神经网络 人体行为识别 智能手机 神经网络结构 数据预处理 预处理阶段 计算能力 健康监测 模型建立 模型应用 日常活动 日常行为 识别系统 数据采集 训练阶段 有效识别 卷积 移植 追踪 记录 健康 | ||
本发明提出了一种基于卷积神经网络(Convolutional Neural Network)的人体行为识别方法,包括三个阶段:数据采集与预处理阶段,模型建立与训练阶段和模型应用阶段。本方法中建立的卷积神经网络结构能够在简单的数据预处理基础上有效识别人体六种日常行为活动,为将识别方法移植到计算能力有限的智能手机中提供了良好的基础,适用于基于智能手机端的人体日常活动记录、健康追踪与健康监测等应用领域。
技术领域
本发明涉及六种人体日常行为,包括行走,慢跑,上下楼梯,站立与坐着,状态分析及健康监测等领域,具体为一种基于卷积神经网络的人体行为识别方法及识别系统。
背景技术
随着信息技术的发展,集成了各种各样传感器(例如三轴加速度传感器和陀螺仪等)的智能手机也愈发普及。近几年,越来越多的基于手机传感器的人体行为识别的应用软件被开发用来记录和监控人体的日常行为活动,同时能有效地帮助用户建立一个健康的生活习惯,在这个领域,寻求一种高效的人体生理活动的识别方法就成为了其中最关键、最核心和最紧迫的问题。
其中一个常见的基于智能手机的人体行为识别方法是通过使用谷歌提供的行为识别应用程序编程接口(Google Activity Recognition API)实现的,此API可以识别的人体行为包括骑自行车、跑步、走路和静止等,但是通过此接口实现的人体行为识别的准确率很低,其原因是使用者的运动模式(运动速度、步态等)不尽相同,即用户个体差异较大,因此针对不同年龄、体型和性别的人群,其较为单一和固定的行为活动判定方法并不全部适用和有效。
发明内容
本发明的目的是针对上述问题,提出一种能减小人体运动模式多样性在人体行为识别领域中带来的影响,具有较低计算复杂度,较高识别准确率,较高灵活性和鲁棒性,且移植性高的实时人体行为活动识别的方法,可用于基于智能手机的人体日常行为活动记录、健康追踪与健康监测等应用领域。
本发明提出了一种基于卷积神经网络(Convolutional Neural Network)的人体行为识别方法,包括三个阶段:数据采集与预处理阶段,模型建立与训练阶段和模型应用阶段,包括如下步骤:
数据采集与预处理阶段
通过在智能手机中安装数据采集软件访问手机内三轴加速度传感器,储存其采集的原始三轴加速度数据和用户反馈的真实的行为活动标签,采集的行为数据包括行走,慢跑,上下楼梯,站立与坐着等六种日常行为,共收集了N组数据,每组包含三个方向的加速度数据;
对采集的原始三轴加速度数据均进行归一化处理,归一化公式如下所示:
式中,μ和σ分别是数据集Z(Z=加速度传感器x,y,z三个轴的数据集)的均值和方差;
对经过处理后的数据使用滑动窗口(半重叠,尺寸为n)进行分割,分割后共得到N/n*2组数据,每组包含n*3个数据,且每组数据间具有50%的重叠;
对上述N/n*2组数据按照70/30的比例随机抽取出模型的训练数据和测试数据,包括相对应的行为标签信息;
模型建立与训练阶段
包括模型结构的建立、超参数的选取等步骤;将训练数据输入建立好的卷积神经模型中训练模型,每次输入的数据大小为1*n*3,模型训练好后对测试数据进行识别,将预测的行为标签与测试数据真实的行为标签进行对比和分析,最终得到该模型对六种日常行为的识别准确率;
若模型对行为的识别准确率没有达到90%以上,则需对模型进行优化,此优化过程主要体现在超参数调整与函数方法的重选取,建立好新的卷积神经网络模型后,继续对新模型进行训练;反之,则认为此模型能有效识别六种人体行为活动,保存此模型的结构和参数值;
模型应用阶段
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华东师范大学,未经华东师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810083701.4/2.html,转载请声明来源钻瓜专利网。