[发明专利]一种基于协同训练的地形分类方法在审
申请号: | 201811119967.6 | 申请日: | 2018-09-25 |
公开(公告)号: | CN109214463A | 公开(公告)日: | 2019-01-15 |
发明(设计)人: | 刘阳;刘珂 | 申请(专利权)人: | 合肥优控科技有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/00 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 230000 安徽省合肥市经济技术开发区青龙*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 样本 触觉数据 结果标记 视觉分类 视觉数据 输出预测 地形 协同 分类器 训练集 置信度 触觉 标注 支持向量机模型 初始分类器 迭代训练 新标记 分类 可用 预设 机器人 并用 视觉 穿越 重复 | ||
本发明公开了一种基于协同训练的地形分类方法,基于协同训练的策略,首先利用有标注的触觉数据和视觉数据,分别训练初始的两个支持向量机模型,然后将未标注的触觉数据和视觉数据分别输入两个初始分类器,并用触觉分类器的置信度高的输出预测结果标记对应的视觉样本,将视觉分类器的置信度高的输出预测结果标记对应的触觉样本,并将新标记的样本加入到对应的训练集,然后基于扩充的训练集重新训练两个分类器,重复这样的操作直至达到预设的迭代训练次数阈值。最终训练得到的视觉分类器可用来在机器人实际工作过程中对即将穿越的地面进行地形种类的识别。
技术领域
本发明涉及机器人领域,特别是涉及一种基于协同训练的地形分类方法。
背景技术
机器人在野外场景中工作时,与室内结构化环境不同,野外场景中的地形-地面多样性、复杂性会对机器人的移动性能产生较大影响。机器人对其所处地形环境的准确分类是决定其能否实现自主移动的关键性因素。触觉和视觉是人类在进行所处地形环境的判断时常用的感知方式,因此我们尝试使机器人也利用类似的感知模式对所处地形环境进行分类。其中触觉只能实现对机器人现处地形的感知,而视觉可以实现更大范围的地形感知,对即将穿越的地形同样可以进行感知。在本发明中,我们通过使用少量有标注的触觉数据和视觉数据,充分利用大量未标注的数据,采取两个分类器协同训练的方式进行分类器的训练,从而减少分类器训练过程对标注数据的依赖,并同时实现对机器人即将穿越地面的地形类别判断。
发明内容
本发明技术克服现有技术的不足,解决了基于视觉与振动的地形分类中标注缺失情况的训练问题。
为解决上述问题,本发明公开了一种基于协同训练的地形分类方法,具体包括以下步骤:
步骤S1:令机器人在其工作环境中的每种地形上分别行驶一段时间,同时收集机器人脚部安装的触觉传感器输出的触觉信号时间序列和面向前方地面的摄像机记录的地面图像序列,对每种地形上采集的触觉信号时间序列分别进行分割,分割长度为α个采样点,得到每种地形对应的触觉信号序列段的集合;对每个触觉信号序列段进行特征提取,得到每种地形对应的触觉信号样本集,所有地形的触觉信号样本集的集合记为对每种地形对应的地面图像序列中的图像进行特征提取,得到每种地形对应的图像特征样本集,所有地形的图像特征样本集的集合记为其中aι和bι表示机器人在同一地点上的触觉传感器获取的触觉信号样本和摄像机获取的图像特征样本,表示触觉信号样本集A和图像特征样本集B包含样本的数量;用地形编号1,2,···,J对这些样本集中的样本进行标注,其中J表示地形种类的总数,得到有标注样本集{A,B,Ψ},为与A和B对应的地形种类集合,其中ψι∈{1,2,.··,J}表示与aι和bι对应的地形种类;
步骤S2:令机器人在其工作环境中随机行走,得到行走中收集的触觉信号时间序列以及地面图像序列,对触觉信号时间序列进行分割,分割长度为α个采样点,得到行走中收集的触觉信号序列段的集合,对触觉信号序列段进行特征提取,得到触觉信号样本集,记为对行走中收集的地面图像序列中的图像进行特征提取,得到图像特征样本集,记为其中cκ和dκ表示机器人在同一地点上的触觉传感器获取的触觉信号样本和摄像机获取的图像特征样本,表示触觉信号样本集C和图像特征样本集D包含样本的数量;由此得到无标注样本集{C,D};
步骤S3:令迭代训练序号e=0,记基于触觉信号的分类器的训练集和基于地面图像的分类器的训练集分别为L(1)、L(2),并令L(1)={A,Ψ}、L(2)={B,Ψ};
步骤S4:基于训练集L(1)和L(2)分别训练基于触觉信号的分类器和基于地面图像的分类器,分类器模型使用支持向量机,记训练好的分类器为和
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于合肥优控科技有限公司,未经合肥优控科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811119967.6/2.html,转载请声明来源钻瓜专利网。