[发明专利]一种基于深度学习的机柜灯状态识别方法在审
申请号: | 201810926063.8 | 申请日: | 2018-08-15 |
公开(公告)号: | CN109086781A | 公开(公告)日: | 2018-12-25 |
发明(设计)人: | 余贵珍;张艳飞;张思佳;牛欢;张力 | 申请(专利权)人: | 北京航空航天大学 |
主分类号: | G06K9/46 | 分类号: | G06K9/46;G06K9/62;G06N3/08 |
代理公司: | 厦门福贝知识产权代理事务所(普通合伙) 35235 | 代理人: | 郝学江 |
地址: | 100191*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 机柜 灯状态 模型参数 学习 自动识别机 工作效率 环境影响 技术识别 植入软件 状态设置 初始化 鲁棒性 串接 柜灯 算法 在机 相机 引入 图片 | ||
1.一种基于深度学习的机柜灯状态识别方法,其特征在于,包括以下步骤:
初始化模型参数,获得模型与对应的模型参数;
通过相机获取机柜灯状态的图片;
基于深度学习技术识别图片中的灯和灯组;
根据不同机柜状态设置不同的识别目标和判断异常的阈值;
基于寻找轮廓的算法获得实际工作中机柜灯组内灯的数量;
将所述灯的数量与所述阈值进行比较,进而识别机柜灯的状态。
2.根据权利要求1所述的一种基于深度学习的机柜灯状态识别方法,其特征在于,所述初始化模型参数,获得模型与对应的模型参数的步骤具体包括:先采集机柜灯的图片并标注出不同类别的灯和灯组,建立训练集与测试集,设置深度学习技术的训练参数并在训练集上训练,训练出的模型的损失值若收敛,则停止训练,否则继续训练,获得训练模型后在测试集上测试,若测试精度高于阈值,则获得最终模型与对应的模型参数,否则继续训练。
3.根据权利要求2所述的一种基于深度学习的机柜灯状态识别方法,其特征在于,所述基于深度学习技术识别图片中的灯和灯组的步骤具体包括:基于改进卷积神经网络的输入机柜图片特征提取,基于候选区域网络的灯和灯组定位和基于快速区域卷积神经网络的灯和灯组分类,实现基于深度学习技术识别出不同类别的灯和灯组。
4.根据权利要求3所述的一种基于深度学习的机柜灯状态识别方法,其特征在于,所述候选区域网络的损失函数定义为
其中,i是一次批量迭代中选取的候选框索引,pi为候选框是目标的概率,如果候选框是正标签,其对应的真实区域标签pi*为1,否则,pi*为0;ti表示预测的包围盒的4个参数化坐标向量,ti*是对应的真实区域包围盒的坐标向量,分类损失Ccls是针对两个类别(目标和非目标)的对数损失:
对于回归损失,用计算,其中
对于回归,采用4个坐标的参数:
tx=(x-xa)/wa ty=(y-ya)/ha
tw=log(w/wa)th=log(h/ha)
其中,x是包围盒中心的横坐标,y是包围盒中心的纵坐标,w是包围盒的宽,h是包围盒的高,xa是候选框的横坐标,ya是候选框的纵坐标,wa是候选框的宽,ha是候选框的高,x*是真实区域包围盒中心的横坐标,y*是真实区域包围盒中心的纵坐标,w*是真实区域包围盒的宽,h*是真实区域包围盒的高;Nclc为小批量数据的个数;Nreg为归一化回归损失的参数;λ为平衡分类损失和回归损失的权重;
快速区域卷积神经网络可以对候选区域输出k+1类目标(包含背景)的概率以及回归后的包围盒坐标,对每一个训练候选区域定义损失函数,
L(p,u,tu,t*)=Lcls(p,u)+[u≥1]Lloc(tu,t*)
其中,Lcls(p,u)=-logpu是对候选区域对应的真实目标类别u的对数损失,对于k+1类目标有p=(p0,p1,....,pk),[u≥1]为示性函数,当候选区域为背景时,u=0,Lloc(tu,t*)为包围盒坐标的回归损失,
其中对于k类目标中的每一个都有t*为候选区域对应的真实目标包围盒的参数坐标向量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学,未经北京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810926063.8/1.html,转载请声明来源钻瓜专利网。