[发明专利]目标物检测方法、装置、设备和计算机可读存储介质在审
申请号: | 202210797251.1 | 申请日: | 2022-07-06 |
公开(公告)号: | CN115019157A | 公开(公告)日: | 2022-09-06 |
发明(设计)人: | 汪峰;莫苏苏;吴昊;王抒昂 | 申请(专利权)人: | 武汉市聚芯微电子有限责任公司 |
主分类号: | G06V20/00 | 分类号: | G06V20/00;G06V10/28;G06V10/40 |
代理公司: | 深圳紫藤知识产权代理有限公司 44570 | 代理人: | 杨婉秋 |
地址: | 430270 湖北省武汉市东湖新*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标 检测 方法 装置 设备 计算机 可读 存储 介质 | ||
本申请提供了一种目标物检测方法、装置、设备和计算机可读存储介质,该方法包括:获取对目标场景进行拍摄后得到的原始深度图像;根据原始深度图像上的目标像素点的像素值以及目标像素点预设邻域范围内的像素点的像素值,确定得到目标像素点的离散特征;若目标像素点的离散特征大于预设第一阈值,则确定目标像素点是目标物像素点。本申请可以在仅利用TOF相机的情况下,对目标物进行检测识别,不需要额外借助RGB相机传感器,并且也不需要采集大量的训练样本来训练神经网络模型,相较于现有的检测方法来说,方法简单,提高了检测效率,降低了检测成本。
技术领域
本申请涉及三维场景建模技术领域,具体涉及一种目标物检测方法、装置、设备和计算机可读存储介质。
背景技术
近年来,飞行时间(Time-of-Flight,TOF)深度成像技术逐渐应用于三维场景建模中,以对扫地机器人、自动导向车(Automated Guided Vehicle,AGV)、增强现实(AugmentedReality,AR)、虚拟现实(Virtual Reality,VR)等设备的应用场景进行三维场景建模。上述应用场景中,高精度的深度传感技术将允许设备实时绘制环境地图,在地图中进行自定位,然后绘制最有效的导航路径。
但是,如果应用场景中存在透明物体,则会导致在深度测量中出现测量偏差,原因就在于透明物体具有高透过特性,此时TOF相机测量出的深度是场景在透明物体后面的深度,而不是到透明物体的深度,如此便会导致设备与透明物体相撞。因此,对于有透明物体的应用场景,需要对其中的透明物体进行检测。
目前主流的透明物体检测方法是利用红绿蓝(Red Green Blue,RGB)相机传感器检测场景,通过学习大量含有透明物体的图像样本,建立用于识别透明物体的神经网络模型,从而通过训练好的神经网络模型对场景中的透明物体进行检测。
但是,这种检测方法需要大量的学习样本来构建用于识别透明物体的神经网络模型,不仅学习样本的采集耗时耗力,而且神经网络模型的训练过程耗时较长、较为繁杂。
发明内容
本申请提供了一种目标物检测方法、装置、设备和计算机可读存储介质,旨在解决现有技术中通过深度学习的方法构建神经网络模型对透明物体进行检测,存在耗时较长且训练过程繁杂的问题。
第一方面,本申请提供了一种目标物检测方法,该目标物检测方法包括:
获取对目标场景进行拍摄后得到的原始深度图像;
针对于原始深度图像上的目标像素点,根据目标像素点的像素值以及目标像素点预设邻域范围内的像素点的像素值,确定得到目标像素点的离散特征;
若目标像素点的离散特征大于预设第一阈值,则确定目标像素点是目标场景中的目标物对应的目标物像素点。
在本申请一种可能的实现方式中,方法还包括:
获取对目标场景进行拍摄后得到的原始灰度图像;
若目标像素点的离散特征大于预设第二阈值,且原始灰度图像上与目标像素点对应的灰度像素点的像素值小于预设阈值,则确定目标像素点是目标物像素点;预设第二阈值小于预设第一阈值。
在本申请一种可能的实现方式中,方法还包括:
获取对目标场景进行拍摄后得到的原始灰度图像;
若目标像素点的离散特征大于预设第二阈值,则对原始灰度图像上与目标像素点对应的灰度像素点进行二值化处理,得到灰度像素点的像素值;预设第二阈值小于预设第一阈值;
若灰度像素点的像素值为第一像素值,则确定目标像素点是目标物像素点;第一像素值是对灰度像素点进行二值化处理时,当灰度像素点的原始像素值小于预设阈值时,为灰度像素点赋予的像素值。
在本申请一种可能的实现方式中,方法还包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉市聚芯微电子有限责任公司,未经武汉市聚芯微电子有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210797251.1/2.html,转载请声明来源钻瓜专利网。