[发明专利]基于ADABOOST+SVM改进分类算法的粮堆目标检测方法有效
申请号: | 201910179504.7 | 申请日: | 2019-03-11 |
公开(公告)号: | CN110009000B | 公开(公告)日: | 2022-09-02 |
发明(设计)人: | 王骄;程云龙 | 申请(专利权)人: | 东北大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/40 |
代理公司: | 沈阳东大知识产权代理有限公司 21109 | 代理人: | 李运萍 |
地址: | 110819 辽宁*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提供一种基于ADABOOST+SVM改进分类算法的粮堆目标检测方法,涉及粮仓机器人视觉技术领域。本发明步骤如下:步骤1:建立粮堆的识别模型;步骤2:通过图像采集设备采集一组粮仓实际场景图片;步骤3:将彩色图像转换为灰度图,将灰度图与识别模型进行对比,并储存成功检测出的候选区域;步骤4:将候选区域按照相似度大小排列,选择出相似度最大的f个粮堆,对彩色图像进行二次判别,输出标注出框选区域的彩色图像;步骤5:通过彩色图像获得参数集,根据参数集计算出粮堆底部宽度,并储存粮堆的宽度、粮堆质心距相机的距离、粮堆质心与相机的夹角方位角。该方法实现了对粮堆的准确、快速地识别,同时也减少了人工平仓作业的成本。 | ||
搜索关键词: | 基于 adaboost svm 改进 分类 算法 目标 检测 方法 | ||
【主权项】:
1.一种基于ADABOOST+SVM改进分类算法的粮堆目标检测方法,其特征在于:包括以下步骤:步骤1:建立粮堆的识别模型;步骤2:通过图像采集设备采集一组粮仓实际场景图片;一组图片包括一张彩色图和一张深度图;步骤3:对采集的彩色图像转换为灰度图,将转换后的灰度图与步骤1中获得的识别模型进行对比,并储存成功检测出的候选区域;步骤3.1:将彩色图像转换为灰度图,并提取图像的LBP特征;步骤3.2:将图像的LBP特征与模型进行对比,直到检测不出粮堆为止,将所有成功检测的候选区域都存储在迭代器中,形成集合P;成功检测的标准为:设定允许检测出的粮堆框选区面积大小范围为(a1,b1)至(a2,b2),其中a1为最小范围的长度值,b1为最小范围的宽度值,a2为最大范围的长度值,b2为最大范围的宽度值,设定对比成功次数为n,每对比成功一次对候选区域进行尺寸缩小,缩小比例为ζ;步骤3.4:判断步骤3.2中的集合P是否为空集或集合中样本数量少于预设样本数量S,是则执行步骤3.5;否则执行步骤4;步骤3.5:将图像采集设备调整角度或位置,采集一组粮仓实际场景图片,包括一张彩色图和一张深度图;采集完成后执行步骤3.1;步骤4:将步骤3中获得的候选区域按照相似度大小排列,选择出相似度最大的f个粮堆,根据选择的f个粮堆对步骤1中的彩色图像按照判别条件进行二次判别,输出标注出框选区域的彩色图像,若判别失败则执行步骤3.5;所述判别条件为:设置位于图像中心处宽度像素范围为(w1,w2)、高度像素范围为(h1,h2)的粮堆框选区域,其中w1为粮堆框选区宽度的最小像素值,w2为粮堆框选区宽度的最大像素值,h1为粮堆框选区高度的最小像素值,h2为粮堆框选区高度的最大像素值;所述粮堆框选区域中的粮堆候选区必须完整且数量大于等于1;步骤5:通过步骤1中的彩色图和深度图获得参数集,根据参数集计算出粮堆底部宽度W,并储存粮堆的宽度W、粮堆质心距相机的距离Dc、粮堆质心与相机的夹角方位角θc;步骤5.1:首先将步骤1中的彩色图中的像素坐标点转换为深度图中的像素坐标点;再通过像素坐标系与世界坐标系之间的转换得到粮堆质心与摄像头的方位角θc和粮堆左下顶点与右下顶点之间的夹角θ;并提取出深度图像素坐标下的各个粮堆的质心坐标(x,y)、质心距相机距离Dc、左下顶点坐标(x1,y1)、左下顶点距相机距离Dl、右下顶点坐标(x2,y2)、右下顶点距相机距离Dr,将上述参数形成参数集;步骤5.2:根据左下顶点距相机距离Dl,右下顶点距相机距离Dr,左下顶点的与右下顶点之间的夹角θ,计算出粮堆底部宽度W,计算公式如下:式中:Dl表示粮堆左下顶点距相机距离;Dr表示粮堆右下顶点距相机距离;θ表示粮堆左下顶点与右下顶点之间的夹角;abs表示计算值取绝对值。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北大学,未经东北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910179504.7/,转载请声明来源钻瓜专利网。