[发明专利]一种基于卷积神经网络的机器人视觉定位方法有效
申请号: | 201810169837.7 | 申请日: | 2018-02-28 |
公开(公告)号: | CN108416428B | 公开(公告)日: | 2021-09-14 |
发明(设计)人: | 杨力;叶炳跃 | 申请(专利权)人: | 中国计量大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08;G06T7/70 |
代理公司: | 杭州浙科专利事务所(普通合伙) 33213 | 代理人: | 杜立 |
地址: | 310018 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: |
本发明公开了一种机器人视觉定位方法,包括图像采集和训练样本标签生成、算法训练、测试三个步骤,步骤一、图像采集和训练样本标签生成:机器人在一特定房间内,摄像头朝上记录多帧连续拍摄的影像,该特定房间天花板上放置由三条直线L |
||
搜索关键词: | 一种 基于 卷积 神经网络 机器人 视觉 定位 方法 | ||
【主权项】:
1.一种机器人视觉定位方法,包括图像采集和训练样本标签生成、算法训练、测试三个步骤,其特征在于:步骤一、图像采集和训练样本标签生成:机器人在一特定房间内,摄像头朝上记录多帧连续拍摄的影像,该特定房间天花板上放置由三条直线L1、L2、L3组成的门型平面靶标,摄像头拍摄的每一帧图像都包含门型标志,利用门型标志的三条直线的定位算法来得到摄像头位姿的闭式解,即旋转角度R和位移T;步骤二、算法训练:采用卷积神经网络训练样本对,以连续图像帧作为训练样本对,求两帧图像相对的位移T以及旋转角度R,生成包含位移信息和旋转角度信息的图像样本对,第一次训练以连续两帧图像作为CNN的输入,样本对对应的相对旋转角度作为输出,第二次训练用同样两帧图像和其对应的旋转角度为输入,相对平移距离为输出;步骤三、测试:用生成式对抗网络训练以提高鲁棒性,使用GAN在原有样本对上输入噪声,构造出过亮或过暗场景的样本对,用生成的对抗样本来训练上述的CNN,根据最后的输出结果回传损失函数,进一步调整CNN的参数,提高该CNN的鲁棒性。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国计量大学,未经中国计量大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201810169837.7/,转载请声明来源钻瓜专利网。