[发明专利]一种基于小波神经网络的视觉反馈控制方法无效
申请号: | 200710177623.6 | 申请日: | 2007-11-19 |
公开(公告)号: | CN101169621A | 公开(公告)日: | 2008-04-30 |
发明(设计)人: | 赵清杰;邓宏彬 | 申请(专利权)人: | 北京理工大学 |
主分类号: | G05B13/02 | 分类号: | G05B13/02;G06N3/02 |
代理公司: | 北京理工大学专利中心 | 代理人: | 张利萍 |
地址: | 100081北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 神经网络 视觉 反馈 控制 方法 | ||
技术领域
本发明涉及机器人视觉反馈控制方法,属于人工智能领域。
背景技术
近年来,人们致力于让机器人拥有类似于人类的视觉功能。目前普遍的做法是借助于各种现成的成像设备(如CCD摄像头)。通过成像设备得到环境信息,对这些信息进行处理并反馈到系统的输入端,引导和协调机器人进行各项操作。类似的研究在工业、农业、服务业、国防和航空航天等领域具有重要的实用价值。但是传统的方法要求摄像机模型、机器人模型、手眼关系等已知或部分已知,这就需要做大量的、费时费力的标定工作。为了避免或者简化系统的标定过程,研究人员提出了一些解决方法。例如文献Piepmeier J A,McMurray G V,Lipkin H.A dynamic Quasi-Newton method foruncal ibrated visual servoing.Proc IEEE Int Conf On Roboticsand Automation,1999:1595-1600和Asada M,Tanaka T,HosodaK.Adaptive Binocular Visual Servoing Independently MovingTarget Tracking.Proceedings of IEEE Conference Robotics&Automation,2000:2076-2081.是在国际机器人学领域的著名会议IEEE Conference Robotics&Automation上发表的两篇文章。他们采用的免标定方法是:在线动态估计图像雅可比矩阵。这种方法的优点是不需要进行系统标定,但缺点是每次迭代都需要求雅可比矩阵的逆矩阵。对于复杂的机器人系统,图像雅可比矩阵具有较高的维数,这样在线计算雅可比逆矩阵是很困难的,另外当雅可比矩阵奇异时,逆矩阵不存在就会造成控制失败。本发明采用人工神经网络,不仅能够避免复杂的系统参数标定,而且避免在线计算逆矩阵,使控制系统的速度和稳定性得到保证。与一般基于人工神经网络的控制方法相比,本发明采用的是小波神经网络,因为这种网络具有更快的学习速度。与机器人视觉伺服中常见的基于物体几何特征的方法相比,本发明采用的是通过特征空间变换得到的图像特征,这样就使本发明的方法可方便用于不同的目标物体。
发明内容
本发明所要解决的技术问题是提供一种有效的、免标定的机器人视觉反馈控制方法。
对于末端装有摄像头(机器人的眼睛)的一般机器人系统,由于机器人的运动会引起图像特征的变化,这个过程是一个复杂的非线性过程。根据视觉信息进行机器人运动控制时,一般要求先根据目标图像特征的变化,求出机器人应该产生的运动量。本发明采用小波神经网络学习机器人应该产生的运动量与图像特征变化之间的复杂关系。
本发明的技术方案如下
本发明分两个阶段:
(一)离线准备阶段,包含以下步骤:
(1)控制机械手运动到工作区内的任意位置,拍摄图像并保存机器人当前的关节角数据;
(2)计算图像特征;
(3)将图像特征及关节角数据进行归一化处理;
(4)训练人工神经网络并保存结果数据;
(二)在线控制阶段,包含以下步骤:
(1)拍摄图像并读取当前的关节角数据;
(2)计算当前的图像特征,并反馈到系统的输入端;
(3)判断当前的图像特征是否与期望的情况相同,如果相同则认为控制结束;如果不同则进入下一步;
(4)计算图像特征差的归一化值;
(5)通过人工神经网络得到关节角的归一化期望值;
(6)计算实际的机器人关节角期望值;
(7)控制机器人运动,返回第(1)步。
本发明的基于小波神经网络的视觉反馈控制原理(如图1所示),描述如下:摄像头(机器人的眼睛)对准工作场所的目标物体,拍摄图像,计算机进行图像特征提取并反馈到系统输入端,与期望值做比较,二者如果不相等则通过小波神经网络得到期望的机器人关键角数值,再由机器人控制器控制机器人(摄像头)运动,重复这个过程直到图像特征之差为零为止。
在实际控制之前,需要先有一个离线准备阶段(参见图2),包含以下步骤:
(1)控制机械手运动到工作区内的任意位置,拍摄图像并保存机器人当前的关节角数据。
(2)采用特征空间变换方法计算图像特征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/200710177623.6/2.html,转载请声明来源钻瓜专利网。