[发明专利]一种二维运动移动机器人的迭代学习轨迹跟踪控制及其鲁棒优化方法有效
申请号: | 201610086848.X | 申请日: | 2016-02-16 |
公开(公告)号: | CN105549598B | 公开(公告)日: | 2018-04-17 |
发明(设计)人: | 陶洪峰;董晓齐 | 申请(专利权)人: | 江南大学 |
主分类号: | G05D1/02 | 分类号: | G05D1/02 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 214122 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种二维运动移动机器人的迭代学习轨迹跟踪控制及其鲁棒优化方法。首先建立二维运动移动机器人离散非线性运动系统模型的动力学方程;并建立离散非线性状态空间表达式;构建基于迭代学习控制技术的P型开闭环迭代学习控制器;然后对构建的离散非线性控制系统的鲁棒收敛性进行理论分析;进而对P型控制器的控制增益进行参数拆项,同时设计一种基于控制器参数的二次性能指标函数,目的对控制参数进行优化;最后分析优化控制算法作用于被控系统时输出误差的单调收敛特性及参数选择条件,实现二维运动移动机器人快速、高精度跟踪上期望运动轨迹。其优点是鲁棒优化迭代学习控制器不仅适用于理想状态下的跟踪控制,而且适用于外界存在干扰情况下的轨迹跟踪任务;设计的迭代算法简单高效,不需要引入大量附加参数变量,易于工程实现。 | ||
搜索关键词: | 一种 二维 运动 移动 机器人 学习 轨迹 跟踪 控制 及其 优化 方法 | ||
【主权项】:
一种二维运动移动机器人的迭代学习轨迹跟踪控制及其鲁棒优化方法,其特征包括:构建移动机器人离散非线性系统动力学方程;设计常规P型开闭环迭代学习控制器;鲁棒迭代学习轨迹跟踪控制算法的收敛性分析;进一步优化鲁棒迭代学习轨迹跟踪控制器;系统输出误差的鲁棒单调性分析;给出鲁棒优化迭代学习控制方案的具体实施;第一步:构建移动机器人离散非线性系统动力学方程二维运动移动机器人实际物理模型如式(1)所示,机器人当前位置z(t)点在广义坐标中定义为[sz(t),pz(t),θz(t)],sz(t)和pz(t)为直角坐标系下z(t)的坐标,θz(t)为机器人的方位角;当机器人的标定方向为地理坐标系的横轴正半轴时,θz(t)定义为0;移动机器人受不完全约束的影响而只能在驱动轮轴的方向运动,点z(t)的线速度和角速度定义为和sz(t+1)pz(t+1)θz(t+1)=sz(t)pz(t)θz(t)+ΔTcosθz(t)0sinθz(t)001υ‾z(t)ω‾z(t)---(1)]]>其中:ΔT为采样时间;定义状态向量x(t)=[sz(t),pz(t),θz(t)]T表示移动机器人在采样点处的s坐标量,p坐标量和角度量,其中s坐标和p坐标分别表示直角坐标系中的横轴坐标和纵轴坐标;速度向量移动机器人的输入量在点z(t)处的线速度和角速度定义为和定义变量矩阵B(t,x(t))=ΔTcosθz(t)0sinθz(t)001;]]>考虑到二维运动移动机器人受外界状态干扰因素和输出受扰因素的影响,且系统初态与期望初值不严格一致情况,将式(1)表示为如(2)形式的状态空间方程:xk(t+1)=f(t,xk(t))+B(t,xk(t))uk(t)+ωk(t)yk(t)=g(t,xk(t))+vk(t)---(2)]]>式中0≤t≤T,T为系统运动周期,xk(t)∈Rn,uk(t)∈Rr,yk(t)∈Rm分别表示移动机器人第k次运行时的状态量,控制输入量和输出量,即移动机器人在坐标系中的实际坐标、坐标及角度坐标运行轨迹;ωk(t)∈Rn,vk(t)∈Rm分别为系统第k次运行时的状态和输出干扰量,且对于任意的k>0,t∈{0,1,…,T},必然||ωk(t)||≤bω,||vk(t)||≤bv,其中bω和bv是已知的可调常数,表示干扰量信号范数有界;f(t,xk(t))和B(t,xk(t))为系统第k次运行时的非线性系统矩阵函数,f(·)、B(·)关于x满足一致全局Lipschitz条件,函数g(t,xk(t))存在状态量x的偏导数,满足上确界要求:bgx=sup||g′xk(t)(t,xk(t))||,且在不注明情况下,g′xk(t)(t,xk(t))均简写为g′xk(t);系统的初态满足条件其中xd(t)表示与给定的期望轨迹yd(t)相对应的期望状态信号,满足条件yd(t)=g(t,xd(t)),xd(0)表示xd(t)在初始时刻的期望初始状态,表示一个已知的可调常数,表示系统实际初始状态与给定的期望初始状态信号之间的偏差范围;第二步:设计常规P型开闭环迭代学习控制器针对非线性移动机器人系统(2)设计P型开闭环迭代学习控制律:uk+1(t)=uk(t)+Lk+1(t)ek(t+1)+Γk+1(t)ek+1(t) (3)式中其中Lk+1(t),Γk+1(t)为迭代学习的增益矩阵,由于实际控制器增益有界,因此其中bL和bΓ为给定的可调常数,用于限制增益矩阵的变化范围;第三步:鲁棒迭代学习轨迹跟踪控制器收敛性分析定义输出跟踪误差:ek(t)=yd(t)‑yk(t),同时定义误差变量δxk(t)=xd(t)‑xk(t),δuk(t)=ud(t)‑uk(t),其中ud(t)表示使移动机器人的输出yk(t)最终完全跟踪上期望轨迹yd(t)的期望控制输入量,则:||δuk+1(t)||≤||I-Lk+1(t)gx~k(k+1)′B(t,xk(t))||||δuk(t)||+||Lk+1(t)||||gx~k(t+1)′||(||f(t,δxk(t))||+||B(t,δxk(t))||||ud(t)||)+||Lk+1(t)||||gx~k(k+1)′||||ωk(t)||+||Lk+1(t)||||vk(t+1)||+||Γk+1(t)||||vk+1(t)||+||Lk+1(t)||||gx~k+1(t)′||||δxk+1(t)||---(4)]]>||δxk(t+1)||≤||f(t,δxk(t))||+||B(t,δxk(t))||||ud(t)||+||B(t,xk(t))||||δuk(t)||+||ωk(t)||---(5)]]>其中在xk(t+1)与xd(t+1)之间取值,取为α1和α2都是小于1的可调正数,且α1+α2=1;在xk+1(t)与xd(t)之间取值,取为α3和α4为小于1的可调正数,且α3+α4=1;令分别表示变量ud(t)和函数B(t,xk(t))、f(t,δxk(t))、B(t,δxk(t))在系统运动周期范围内的范数上界,则进而可得:||δxk(t)||≤c1t||δxk(0)||+Σj=0t-1c1t-1-j(bB||δuk(j)||+bω)---(6)]]>令:得到:||δuk+1(t)||≤ρ||δuk(t)||+bΓbgx2||δxk+1(t)||+bLbgx1(kf+kBbuc)||δxk(t)||+bLbgx1bω+bLbv+bLbv---(7)]]>接下来,将式(6)代入式(7)中,并令两端同时乘以λt,并取λ范数立即可得:||δuk+1(t)||λ≤ρ‾||δuk(t)||λ+θ---(8)]]>其中:ρ‾=(ρ+c2bBλ1-(λc1)T1-λc1)(1-c3bBλ1-(λc1)T1-λc1),θ=c2bx0+c3bx0+c41-c3bBλ1-(λc1)T1-λc1+c2bωλ1-(λc1)T1-λc1+c3bωλ1-(λc1)T1-λc11-c3bBλ1-(λc1)T1-λc1]]>即经k次迭代后:||δuk+1(t)||λ≤ρ‾k+1||δu0(t)||λ+θ1-(ρ‾)k+11-ρ‾---(9)]]>当λ取足够小,时:limk→∞||δuk||λ≤θ1-ρ‾---(10)]]>则:||ek(t)||λ≤bgxbx0+bv+bωλ1-(λc1)T1-λc1+λbB||δuk||λ1-(λc1)T1-λc1---(11)]]>而且将式(10)代入式(11)中,进一步可得:limk→∞||ek||λ≤bgxbx0+bv+bωλ1-(λc1)T1-λc1+(λbB)θ1-ρ‾1-(λc1)T1-λc1---(12)]]>由式(12)可知,通过k次迭代后,最终跟踪误差会收敛到一定范围以内,即:其中:特别地,当非线性系统不存在外界因素的干扰且系统初始值与给定期望初态严格一致时,limk→∞||ek||λ=0;]]>第四步:优化鲁棒迭代学习轨迹跟踪控制器虽然在第三步中鲁棒迭代学习轨迹跟踪控制器能够使得移动机器人系统满足稳定性条件,但稳定参数的选择范围较大,稳定参数的人为随意选择将使得系统即使满足稳定性条件通常也会降低最终控制性能;因此需要进一步考虑存在干扰情形下,非线性机器人离散系统(2)的鲁棒优化控制算法,其中t∈{0,1,…,T}为采样时刻;将式(2)中的状态量xk(t)代入yk(t),则输出表示为:yk(1)=H(xk(0),uk(0),uk(0),ωk(0)+vk(1))...yk(T)=H(xk(0),uk(0),...,uk(T-1),ωk(0),...,ωk(T-1)+vk(T))]]>其中H(·)表示非线性机器人离散系统(2)运行时,在一个运行周期内所有采样点t∈{0,1,…,T}都满足的一个非线性函数,则输出误差可表示为:ek+1=ek‑(yk+1‑yk) (13)由微分中值定理及非线性系统可得:yk+1-yk=H~k+1(uk+1-uk)+d~---(14)]]>其中表示H(·)关于uk的Jacobain矩阵在uk+1(t)和uk(t)之间的取值,为含初值不严格一致的扰动总量;为方便求解,将增益矩阵改写成一种特殊形式:Lk+1=αk+1W,Γk+1=βk+1M,其中W,M分别为与Lk+1和Γk+1相同结构和维数的构造矩阵,αk+1、βk+1分别为参量,则迭代学习控制律可改写成:uk+1-uk=αk+1Wek+βk+1Mek+1---(15)]]>得到ek+1,即进一步整理得到:ek+1=(I+H~k+1βk+1M)-1((I-H~k+1αk+1W)-d~)---(16)]]>考虑性能指标:其中调节量ψ>0,Q=I;利用最优控制原理中的极值原理可以得到:αk+1*=argmin[Jk+1(αk+1,βk+1)]βk+1*=argmin[Jk+1(αk+1,βk+1)]---(18)]]>注意到这里求出的与将分别含有ψ和说明ψ与对αk+1取最优解具有调节作用,同时对βk+1也具有调节作用,因此需对ψ和求偏导求其相应的最优解,即:综合以上优化分析条件建立多目标优化函数,得到最优化参数代入迭代学习律中即可得到鲁棒优化迭代学习的P型开闭环控制器;第五步:系统输出跟踪误差的鲁棒单调性分析考虑性能指标函数式(17):当取非最优化解αk+1=0,βk+1=0,则:因此,||ek+1||≤||ek||,即误差单调收敛,||ek+1||的极限必然存在;根据可知误差会收敛到优化后的有界误差范围内;实际上,对于确定性系统,由于则误差将收敛到零;综合式(20)和式(21)可得:经k次迭代后有:实际上,在理想状态下系统不存在干扰,且初值严格一致的条件下,对于P型开环的参数优化式(27)中e0=0,最终而对于非线性系统采用P型开闭环控制律,由于随机干扰的存在,且初值不严格一致,则将会无限逼近于零,但无法达到,而对于由式(23)移项整理可知其存在一定的上限;第六步:具体鲁棒单调优化迭代学习控制方案实施迭代学习轨迹跟踪算法具体的鲁棒优化方案如下:1)针对被控移动机器人系统,设定系统期望初始状态xk(0),初始控制u0,期望轨迹yd,采样周期ΔT;2)给定最大跟踪误差精度εmax;3)设定系统批次运行时的初值xk(0),在干扰量存在条件下运行系统并记录时刻对应的输出误差和干扰量值的大小,给定适当的W和M,带入多目标优化函数性能指标得到得到最优化控制律;4)对第k+1批次控制量作用于被控移动机器人系统,产生跟踪误差若在允许最大跟踪误差精度范围以内,结束迭代过程,否则回到3)中重新设定相应初值,继续迭代,直到达到要求误差精度范围;将上述鲁棒单调优化迭代学习控制方案在FPGA芯片EP1C6T144C8上实现,输入量为移动机器人的线速度和角速度其线速度和角速度信号分别由扭矩传感器和旋转角度传感器检测得到,输入信号通过调理电路由FPGA核心中央处理芯片按性能指标进行程序计算得出优化参数,并构建鲁棒单调优化控制器,CPU程序计算得到的输出信号为FPGA经迭代信号处理后得到最优化控制器控制信号再经RS232通信模块作用于机器人控制系统,不断修正二维运动移动机器人的跟踪轨迹,直到达到设定要求,误差允许在一定范围内保持。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江南大学,未经江南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201610086848.X/,转载请声明来源钻瓜专利网。