[发明专利]基于高斯混合噪声生成式对抗网络的物体硬度识别方法有效
申请号: | 201811328795.3 | 申请日: | 2018-11-09 |
公开(公告)号: | CN109508740B | 公开(公告)日: | 2019-08-13 |
发明(设计)人: | 王慰;钱晓亮;赵素娜;李二凯;曾黎;王延峰;杨存祥;毋媛媛;吴青娥 | 申请(专利权)人: | 郑州轻工业学院 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08;G01N3/40 |
代理公司: | 郑州大通专利商标代理有限公司 41111 | 代理人: | 陈勇 |
地址: | 450002 *** | 国省代码: | 河南;41 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 高斯混合 硬度识别 噪声生成 网络 触觉数据 对抗 物体硬度 标注 样本 机器学习技术 网络参数 噪声输入 判别器 预测 | ||
本发明涉及机器学习技术领域,公开了基于高斯混合噪声生成式对抗网络的物体硬度识别方法,包括:以小规模标注硬度等级的触觉数据作为真值,训练高斯混合噪声生成式对抗网络,将高斯混合噪声输入所述高斯混合噪声生成式对抗网络,获取大规模生成样本;以高斯混合噪声生成式对抗网络的判别器的参数作为硬度识别网络参数的初值,利用所述大规模生成样本对硬度识别网络进行预训练,使用标注硬度等级的触觉数据对硬度识别网络进行再次训练,确定硬度识别网络的参数;将待预测的触觉数据输入硬度识别网络,获得待预测的触觉数据的硬度等级。本发明具有较高的硬度识别精度。
技术领域
本发明涉及机器学习技术领域,尤其涉及基于高斯混合噪声生成式对抗网络的物体硬度识别方法。
背景技术
物体的硬度识别实质是获取物体的物理信息。近年来,随着机器人的发展,工业机器人趋于成熟并加速了工厂自动化的程度,而人形的机械手只能做一些简单的动作或抓取特定的物体,距离机械手成功抓取任意的物体还有很大的距离。机械手获取目标物的信息越多越有利于抓取,而物体的硬度作为其重要的物理属性之一,对物体的抓取有重要意义。
物体硬度识别的方法有多种,依据是否使用机器学习将现有基于触觉的硬度识别方法分为两大类,其中使用非机器学习的方法存在对硬件要求比较高,操作比较繁琐的问题,因此基于机器学习的硬度识别方法是当前的主要发展趋势。近几年随着深度学习的发展,可依据是否采用深度学习技术将基于机器学习的方法再细分为两类。其中,基于深度学习的物体硬度识别的精度比非深度学习的识别精度高,因此,基于深度学习的物体硬度识别有更广泛的应用。由于深度学习需要大量的训练样本来确定硬度识别网络的参数,但触觉数据的采集和标签的标注较为繁琐,浪费了大量的人力和时间成本。
发明内容
针对现有基于深度学习的物体硬度识别的样本问题,本发明提出了基于高斯混合噪声生成式对抗网络物体硬度识别方法,可以快速获取大量的生成样本,从而初步确定硬度识别网络的参数,再用少量标注硬度等级的触觉数据对硬度识别网络进行再次训练,确定硬度识别网络的参数的最终值,节省了大量的人力和时间成本,且具有较高的硬度识别精度。
为了实现上述目的,本发明采用以下技术方案:
基于高斯混合噪声生成式对抗网络的物体硬度识别方法,包括:
步骤1:以小规模标注硬度等级的触觉数据作为真值,训练高斯混合噪声生成式对抗网络,将高斯混合噪声输入所述高斯混合噪声生成式对抗网络,获取大规模生成样本;
步骤2:以高斯混合噪声生成式对抗网络的判别器的参数作为硬度识别网络的参数的初值,利用所述大规模生成样本对硬度识别网络进行预训练,使用标注硬度等级的触觉数据对硬度识别网络进行再次训练,确定硬度识别网络的参数的最终值;
步骤3:将待预测的触觉数据输入硬度识别网络,获得所述待预测触觉数据的硬度等级。
进一步地,所述步骤1包括:
步骤1.1:用机械臂前端的传感器碰触目标物体,采集触觉数据,将采集的触觉数据依据其硬度物理属性划分为L个硬度等级,并标注相应的标签为1、2、3、…、L,获得L类标注硬度等级的触觉数据;
步骤1.2:将L类标注硬度等级的触觉数据作为真值,训练高斯混合噪声生成式对抗网络:
步骤1.2.1:定义输入高斯混合噪声生成式对抗网络的高斯混合噪声的概率密度分布为:
其中,zi∈Rn为第i类标注硬度等级的触觉数据对应的输入高斯混合噪声,n为输入的高斯混合噪声中包含数据点的个数,为zi从第k个高斯分量中获取的高斯混合噪声,K为高斯分量的个数,表示高斯分布,和分别为第k个高斯分量的均值和协方差矩阵,为第k个高斯分量在所有高斯混合噪声信号中的权重;令
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于郑州轻工业学院,未经郑州轻工业学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811328795.3/2.html,转载请声明来源钻瓜专利网。