[发明专利]一种基于视觉的坐姿检测方法有效
申请号: | 201911239189.9 | 申请日: | 2019-12-06 |
公开(公告)号: | CN111145274B | 公开(公告)日: | 2022-04-22 |
发明(设计)人: | 杜娟;胡昊杰 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06T7/90 | 分类号: | G06T7/90;G06T7/40;G06T7/155;G06T7/13;G06T5/20;G06V40/16 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 王东东 |
地址: | 511458 广东省广州市*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 视觉 坐姿 检测 方法 | ||
本发明公开了一种基于视觉的坐姿检测方法,包括,实时采集视频流中的连续帧图像;首先对图像进行白平衡等预处理,降低光照强度和色温对于检测效果的影响,然后通过皮肤的色彩空间椭圆模型来提取类人体肤色区域,再经过一系列的形态学处理后,结合区域纹理以及部分约束条件确定用户脸部位置,通过本发明提出的提取特征的方法,提取用户的坐姿特征,并与预先标定的得到的标定参考值进行比对分析,对用户当前坐姿进行分析判断。该发明适合在嵌入式设备上运行,能够有效降低生产成本,扩大使用范围。
技术领域
为了克服现有技术存在的缺点与不足,本发明提供一种基于视觉的坐姿检测方法。
背景技术
人们在日常阅读写字的时候容易姿势不正,若不加以矫正,长期则会养成眼距离过近,斜视等不良用眼习惯甚至引发脊柱变形等疾病。近年来,国家日益重视青少年近视防护工作。通过日常的提醒和纠正,可以让青少年养成良好的用眼习惯。随着人们工作节奏的加快,长期的伏案工作与学习对人类带来了很多负面影响。
目前市面上已有的部分台灯产品已经提供了相应的提醒功能。有些产品在使用时要求用户穿戴额外的小型传感器设备,台灯主机通过这些穿戴设备来判断用户的坐姿是否正确,由于需要额外设备使用较为繁琐,分体式设计容易导致穿戴设备丢失,容易提高用户的使用成本;有些产品则是采用一体化设计,在台灯上安装红外传感器来检测用户坐姿,这类产品仅能检测特定红外传感器对应点的信息,对于坐姿检测精度较低,如要提高检测精度需要增加传感器数量重新设计传感器安装位置,成本较高;另外一些基于摄像头的产品并不能很好地检测前倾或后仰等错误坐姿或是检测速度较慢精度不高。
适用于日常生活的坐姿矫正方案应该具有良好的稳定性和普适性,不因使用环境和使用对象的变换而失效。
发明内容
为了克服现有技术中存在的检测速度慢,检测精度和灵敏度不高的缺陷,本发明提供一种基于视觉的坐姿检测方法。
本发明在将图像白平衡处理后,提取类人体肤色区域,经过一系列的形态学处理后,结合区域纹理以及部分约束条件确定用户脸部位置,提取用户的坐姿特征,并与预先得到的标定参考值进行比对分析,对用户当前坐姿进行分析判断。
本发明采用如下技术方案:
一种基于视觉的坐姿检测方法,适用于台灯,所述台灯置于使用者的前方,所述台灯包括旋转杆,摄像头及LED发光面板,所述旋转杆内置控制器,所述控制器与摄像头连接,所述使用者的上半身在摄像头的视野范围内,具体坐姿检测过程如下:
实时采集包含使用者上半身的视频流,获取视频图像,并将图像大小调整为320像素×240像素,记作Image1,对Image1图像进行边缘提取,得到边缘图像Image2;
通过肤色的Cr-Cb椭圆模型,从Image1中提取出类皮肤区域为掩模区域,然后对提取得到的掩模区域进行形态学滤波处理得到Mask1;
在Mask1中筛选出最大连通域,得到符合人脸区域标准的掩模;
去除干扰面部纹理提取的因素,得到掩模Mask2,并记录Mask2区域的高度特征F1、宽度特征F2及高宽比特征F3,同时利用掩模Mask2与边缘图像Image2处理得到只含有面部区域的纹理图像Image3;
计算只含有面部区域的纹理图像Image3的列和,并对结果值进行平滑滤波处理,通过分析列和结果的峰值来判断当前台灯与使用者的相对位置特征F4,同时记录峰值在纹理图像Image3中的面部区域横轴相对位置特征F5;
对掩模Mask2区域计算其空间矩,进一步获得掩模Mask2区域的长轴旋转角度及中心坐标,进而获得长轴旋转角F6和中心位置F7这两个特征;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911239189.9/2.html,转载请声明来源钻瓜专利网。