[发明专利]基于自适应面部动作特征阈值的疲劳驾驶检测方法在审
申请号: | 202210877746.5 | 申请日: | 2022-07-25 |
公开(公告)号: | CN115171083A | 公开(公告)日: | 2022-10-11 |
发明(设计)人: | 刘晶;张鑫 | 申请(专利权)人: | 西安理工大学 |
主分类号: | G06V20/59 | 分类号: | G06V20/59;G06V10/25;G06V20/40;G06V40/16 |
代理公司: | 西安弘理专利事务所 61214 | 代理人: | 徐瑶 |
地址: | 710048 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 自适应 面部 动作 特征 阈值 疲劳 驾驶 检测 方法 | ||
1.基于自适应面部动作特征阈值的疲劳驾驶检测方法,其特征在于:具体包括如下步骤:
步骤1,获取实时拍摄驾驶员驾驶过程的视频,并将视频流加载成图像帧;
步骤2,使用YOLO V5网络进行识别步骤1加载的图像帧中的标签信息、置信度和位置信息,并通过标签信息进行判断驾驶员是否已经坐到驾驶位置上面,如果驾驶员没有坐到驾驶位置,则继续执行步骤1直至驾驶员开始坐到驾驶位置上面后才执行步骤3;
步骤3,循环读取步骤1加载的图像帧,对每一帧的图像获取面部特征位置信息,并计算眼部长宽比EAR和嘴部长宽比MAR;
步骤4,在不同时段根据步骤3获得的眼部的长宽比EAR和嘴部长宽比MAR自适应计算出眼部长宽比阈值EART和嘴部长宽比阈值MART;
步骤5,根据步骤4获得的眼部和嘴部长宽比阈值进行统计眨眼次数和打哈欠次数;
步骤6,根据步骤5统计的眨眼次数和打哈欠次数进行判断当前时段是否疲劳,然后继续循环执行步骤1,进行判断下一时段的疲劳状态。
2.根据权利要求1所述的一种基于自适应面部动作特征阈值的疲劳驾驶检测方法,其特征在于:所述步骤1的具体过程为:
步骤1.1,通过OpenCV的视频的获取操作函数获取视频源;
步骤1.2,经过步骤1.1获得驾驶员驾驶过程的视频源之后,设置定时器周期,连接定时器周期溢出的槽函数,用于显示一帧视频,加载成图像帧之后,读取视频的每一帧画面。
3.根据权利要求2所述的一种基于自适应面部动作特征阈值的疲劳驾驶检测方法,其特征在于:所述步骤2的具体实施方式如下:
步骤2.1,将步骤1加载的图像帧保持原有的长宽比例,剩下的部分采用灰色填充处理获得新的图像帧;
步骤2.2,将步骤2.1获得的新图像帧中内存不连续存储的数组转换为内存连续存储的numpy数组;
步骤2.3,将步骤2.2处理之后的numpy数组转换为PyTorch中的张量,且二者共享内存;
步骤2.4,将步骤2.3获得的张量经过YOLO V5网络进行处理,处理之后提取所有分数中最高的作为最终结果;
步骤2.5,从步骤2.4的最终结果中提取标签信息、置信度和位置信息;
步骤2.6,从步骤2.5获得的标签信息判断驾驶员是否坐到驾驶位置,如果没有检测到驾驶员坐到驾驶位置的标签信息,则继续执行步骤1直至检测到驾驶员坐到驾驶位置的标签信息后才执行步骤3。
4.根据权利要求3所述的一种基于自适应面部动作特征阈值的疲劳驾驶检测方法,其特征在于:所述步骤3的具体过程为:
步骤3.1,通过Dlib的人脸关键点检测器来处理获取步骤1加载的图像帧中的脸部关键点特征信息;
步骤3.2,将步骤3.1获取的脸部关键点特征信息转换为数组array的格式,根据获取左右眼和嘴部等面部标志的索引,进行提取左右眼和嘴部的坐标;通过坐标计算对应的欧氏距离,以此欧式距离得到左右眼与嘴部的长宽比;眼部和嘴部的长宽比计算的数学公式分别如(1)(2):
式中,EAR代表眼部长宽比,p1,p2,p3,p4,p5,p6分别代表眼部的六个关键点位置坐标;MAR代表嘴部长宽比,m1,m2,m3,m4,m5,m6分别代表嘴部的六个关键点位置坐标。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安理工大学,未经西安理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210877746.5/1.html,转载请声明来源钻瓜专利网。