[发明专利]基于MOD-Net网络的眼动参数监测的疲劳检测方法有效
申请号: | 201910372053.9 | 申请日: | 2019-05-06 |
公开(公告)号: | CN110084217B | 公开(公告)日: | 2022-10-14 |
发明(设计)人: | 姚康;管凯捷;任谊文;付威威;董月芳 | 申请(专利权)人: | 苏州国科视清医疗科技有限公司 |
主分类号: | G06V40/19 | 分类号: | G06V40/19;G06V10/34;G06V40/18;G06V10/764 |
代理公司: | 北京远大卓悦知识产权代理有限公司 11369 | 代理人: | 韩飞 |
地址: | 215163 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 mod net 网络 参数 监测 疲劳 检测 方法 | ||
1.一种基于MOD-Net网络的眼动参数监测的疲劳检测方法,其特征在于,包括以下步骤:
1)采集侧眼图像,对图像进行灰度化处理、抗噪处理后并输入到MOD-Net网络;
2)MOD-Net网络对图像进行特征提取,然后进行分类以判断当前图像是否包括眼部区域;之后对包含眼部区域的图像进行边框回归,以确定眼部区域的位置,并使用矩形框标出;
3)计算所述步骤2)得到的矩形框的高宽比,通过将得到的高宽比的值与设定的睁闭眼阈值进行比较,判断睁、闭眼状态;
4)统计一段时间内的眼部图像,对每一张图像按上述步骤处理得到睁、闭眼状态,计算其闭眼的帧数占总帧数的百分比,当百分比大于设定的疲劳阈值时,判定为疲劳状态;
所述MOD-Net网络包括输入层、特征图提取网络层、目标检测网络层和输出层;
所述特征图提取网络层对输入的侧眼图像进行特征提取,得到眼部的特征图;所述目标检测网络层对特征图进行分类,判断当前图像是否包括眼部区域,并对包含眼部区域的图像使用边框回归网络确定出眼部区域的位置,并使用矩形框标出;
所述特征图提取网络层包括输入层、与所述输入层并行连接的普通卷积层、深度卷积层、交叉十字卷积层以及用于对三个卷积层的输出进行融合的拼接融合层;
所述普通卷积层为3*3的卷积核,所述深度卷积层为1*1的卷积核;
所述交叉十字卷积层包括与所述交叉十字卷积层的输入并行连接的第一卷积对和第二卷积对,所述第一卷积对 包括依次连接的1*10的卷积核和10*1的卷积核,所述第二卷积对包括依次连接的10*1的卷积核和1*10的卷积核;
所述交叉十字卷积层的处理步骤包括:
a.输入图像分别进入第一卷积对和第二卷积对;
b.第一卷积对中的1*10的卷积核和10*1的卷积核依次对输入图像进行卷积;第二卷积对中的10*1的卷积核和1*10的卷积核依次对输入图像进行卷积;
c.将第一卷积对和第二卷积对的卷积输出进行拼接融合后作为所述交叉十字卷积层的卷积结果进行输出。
2.根据权利要求1所述的基于MOD-Net网络的眼动参数监测的疲劳检测方法,其特征在于,所述目标检测网络层包括注意力层及与所述注意力层的输出并行连接的分类网络层和边框回归网络层;
所述分类网络层包括全连接层和激活函数,所述边框回归网络层包括卷积层、若干全连接层和激活函数;
所述注意力层对输入的特征图进行注意力加权,以强调目标信息,并抑制无关的细节信息;所述分类网络层判断当前图像中是否包括眼部区域;所述边框回归网络层对眼部区域进行定位,并使用矩形框标出。
3.根据权利要求2所述的基于MOD-Net网络的眼动参数监测的疲劳检测方法,其特征在于,所述注意力层包括串联连接的若干卷积层、与所述卷积层的输出连接的Sigmoid函数以及Mutiply层,所述Mutiply层用于将所述目标检测网络层的输入与Sigmoid函数的输出相乘并将其结果作为所述注意力层的输出。
4.根据权利要求3所述的基于MOD-Net网络的眼动参数监测的疲劳检测方法,其特征在于,所述分类网络层包括Dense 1和Sigmoid函数,Dense 1用于将所述分类网络层的输入压缩到一个特征值上,这个特征值经过Sigmoid激活函数之后,用于二分类,即判断当前图像中是否包含人眼区域;
所述边框回归网络层包括依次连接的3*3的卷积核、Dense100、Dense 4和Sigmoid函数,Dense 4用于将所述分类网络层的输入压缩到4个特征值上,这4个特征值经过Sigmoid激活函数之后,分别代表了眼部检测矩形框的两个对角坐标,可以用于眼部区域的定位,即在图像中找到眼部区域,并用矩形框画出。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州国科视清医疗科技有限公司,未经苏州国科视清医疗科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910372053.9/1.html,转载请声明来源钻瓜专利网。