[发明专利]一种确定目标位置方法及设备在审
申请号: | 202010514293.0 | 申请日: | 2020-06-08 |
公开(公告)号: | CN111784767A | 公开(公告)日: | 2020-10-16 |
发明(设计)人: | 钱斌;陈琛;牛孜飏;朱莹莹;钟国崇;谭龙田 | 申请(专利权)人: | 珠海格力电器股份有限公司;珠海联云科技有限公司 |
主分类号: | G06T7/70 | 分类号: | G06T7/70;G06T7/66;G06T7/00;G06T3/60;G06N3/04 |
代理公司: | 北京同达信恒知识产权代理有限公司 11291 | 代理人: | 张恺宁 |
地址: | 519070 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 确定 目标 位置 方法 设备 | ||
本发明涉及目标识别领域,公开一种确定目标位置方法及设备,该确定目标位置方法,包括:将包含对象的图像输入已训练的神经网络,得到所述图像中位于所述对象上的基准位置;根据所述图像中所述基准位置,以及预先设定的所述基准位置和用于确定对象位置偏移的目标位置的位置关系,确定所述图像中所述对象上的目标位置;用于提高确定对象位置点的效率和准确性。
技术领域
本发明涉及目标识别技术领域,特别涉及一种确定目标位置方法及设备。
背景技术
目前利用视觉检测对象位置时,特别的在自然光照的环境下由于光照在全天的变化以及天气的影响,晚上开灯光照等等情况下,都会影响相机获取图像中对象的位置变化,从而造成对象在图像中的位置与实际位置的偏差,造成图像中对象上下偏移或者左右偏移,导致获取对象在图片的相对位置时,发生变化。
在工业场景中,用来确定对象的位置点,需要人为的去粘贴点,主要通过人为粘贴标志点来定位,不但影响检测物体外观,而且效率较低,不利于在检测对象位置点工序阶段的自动化。
发明内容
本发明公开了一种确定目标位置方法及设备,用于提高确定对象位置点的效率和准确性。
为达到上述目的,本发明提供以下技术方案:
第一方面,本发明提供了一种确定目标位置方法,包括:
将包含对象的图像输入已训练的神经网络,得到所述图像中位于所述对象上的基准位置;
根据所述图像中所述基准位置,以及预先设定的所述基准位置和用于确定对象位置偏移的目标位置的位置关系,确定所述图像中所述对象上的目标位置。
本发明提供的确定目标位置方法,先将包含对象的图像输入训练好的神经网络中,然后得到图像中对象上的基准位置,通过基准位置和需要确定的目标位置与基准位置的位置关系,由两者位置关系和基准位置准确确定对象目标位置。该方法实现了自动在图像中寻找对象的目标位置,能够抵抗环境等原因造成的对象中目标位置的偏移而准确的找到目标位置,提高了确定目标位置的效率。
在一种可能的实现方式中,所述确定所述图像中所述对象上的目标位置,包括:
若所述图像中所述基准位置为用于限制所述基准位置范围的包围框的中心点的位置,则通过所述中心点的坐标值与所述目标位置的第一像素距离,确定所述图像中所述对象上的目标位置;或,
若所述图像中所述基准点位置为用于限制所述基准位置范围的包围框的边界点的位置,则通过所述边界点的坐标值与所述目标位置的第二像素距离,确定所述图像中所述对象上的目标位置。
上述方法中,在确定图像中对象上的目标位置时,是通过图像中限制基准位置的包围框进行确定,至少可以通过包围框的中心点位置的坐标值与目标位置的第一像素距离,确定图像中对象上的目标位置;或通过包围框的边界点位置的坐标值与目标位置的第二像素距离,确定图像中对象上的目标位置。这样的方式能够更准确的定位图像中对象上的目标位置。
在一种可能的实现方式中,通过如下方式对所述神经网络进行训练:
将样本图像集合中的样本图像作为输入,将所述样本图像中位于对象上的基准位置作为输出,对神经网络进行训练。
在一种可能的实现方式中,通过如下方式确定所述样本图像集合:
对初始样本图像集合进行增广处理,得到所述样本图像集合。
上述方法中,首先将样本图像集合中的样本图像输入神经网络中,然后输出样本图像中位于对象上的基准位置。这样确定基准位置可以提高作为参照点基准位置的准确性。
在一种可能的实现方式中,所述对初始样本图像集合进行增广处理,得到所述样本图像集合,具体包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于珠海格力电器股份有限公司;珠海联云科技有限公司,未经珠海格力电器股份有限公司;珠海联云科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010514293.0/2.html,转载请声明来源钻瓜专利网。