[发明专利]障碍物检测方法、装置、避障设备及计算机可读存储介质在审
申请号: | 202010623819.9 | 申请日: | 2020-06-30 |
公开(公告)号: | CN111973410A | 公开(公告)日: | 2020-11-24 |
发明(设计)人: | 张帆 | 申请(专利权)人: | 北京迈格威科技有限公司 |
主分类号: | A61H3/06 | 分类号: | A61H3/06;G06T7/50;G06T7/70 |
代理公司: | 北京超凡宏宇专利代理事务所(特殊普通合伙) 11463 | 代理人: | 何少岩 |
地址: | 100086 北京市海淀区科*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 障碍物 检测 方法 装置 设备 计算机 可读 存储 介质 | ||
本发明提供了一种障碍物检测方法、装置、避障设备及计算机可读存储介质,该方法应用于配置有深度传感器的可穿戴设备,包括:获取深度传感器采集的深度图;获取预先对深度传感器标定所得的深度值与距离之间的映射关系;根据映射关系确定深度图对应的障碍物信息;障碍物信息至少包括障碍物距离;将障碍物信息提供给可穿戴设备的用户。本发明能够便捷有效地检测到障碍物,且具有较强的普适性。
技术领域
本发明涉及图像处理技术领域,尤其是涉及一种障碍物检测方法、装置、避障设备及计算机可读存储介质。
背景技术
目前盲人在出行过程中检测障碍物的方式主要有如下几种:(1)依靠导盲犬或导盲杖,但是普适性较差,对于城市道路状况相对比较复杂的地方而言,依靠导盲犬或导盲杖只能检测到诸如盲人腰部以下的低处障碍物,而较高处的障碍物依旧对盲人的安全存在极大的威胁,障碍物检测效果较差。(2)借助辅助设备自动监测障碍物,辅助设备目前涉及的主要技术有:通过双目摄像头估计障碍物的距离以及通过深度学习模型估计障碍物距离。但是双目摄像头监测障碍物的方式在弱光或黑暗中无法使用,普适性同样较差,而且需要复杂的后处理算法,无法满足实时性;通过深度学习模型监测障碍物的方式需要较为复杂的模型训练过程,且鲁棒性较差,可能无法准确有效的检测出障碍物。综上所述,现有可用的障碍物检测方法均不佳。
发明内容
有鉴于此,本发明的目的在于提供一种障碍物检测方法、装置、避障设备及计算机可读存储介质,能够便捷有效地检测到障碍物,且具有较强的普适性。
为了实现上述目的,本发明实施例采用的技术方案如下:
第一方面,本发明实施例提供了一种障碍物检测方法,方法应用于配置有深度传感器的可穿戴设备,包括:获取深度传感器采集的深度图;获取预先对深度传感器标定所得的深度值与距离之间的映射关系;根据映射关系确定深度图对应的障碍物信息;障碍物信息至少包括障碍物距离;将障碍物信息提供给可穿戴设备的用户。
进一步,映射关系的标定步骤包括:获取用于标定深度传感器的平面障碍物在与深度传感器间距多种距离时,深度传感器针对每种距离分别输出的标定深度图;根据每种距离对应的标定深度图,拟合得到深度值与障碍物距离之间的映射关系。
进一步,根据每种距离对应的标定深度图,拟合得到深度值与障碍物距离之间的映射关系的步骤,包括:根据每种距离对应的标定深度图确定深度传感器的最小有效深度阈值;对标定深度图中高于最小有效深度阈值的深度值与多种距离进行拟合,得到深度值与障碍物距离之间的映射关系;其中,映射关系为线性映射。
进一步,根据映射关系确定深度图对应的障碍物信息的步骤,包括:获取深度图中位于目标区域的每个像素点的深度值;其中,目标区域为预先设定的深度图中的障碍物检测区域;根据映射关系以及目标区域中每个像素点的深度值,从目标区域中筛选出障碍物像素点;根据映射关系以及障碍物像素点的深度值,确定深度图对应的障碍物信息。
进一步,根据映射关系以及目标区域中每个像素点的深度值,从目标区域中筛选出障碍物像素点的步骤,包括:针对目标区域中每个像素点,判断该像素点的深度值是否大于深度传感器的最小有效深度阈值;如果是,根据映射关系和该像素点的深度值计算该像素点对应的距离;如果该像素点对应的距离小于预设距离阈值,确定该像素点为障碍物像素点。
进一步,根据映射关系以及障碍物像素点的深度值,确定深度图对应的障碍物信息的步骤,包括:根据映射关系和障碍物像素点的深度值,计算每个障碍物像素点对应的距离;根据每个障碍物像素点对应的距离,为每个障碍物像素点分配权重;基于每个障碍物像素点对应的权重,对所有障碍物像素点对应的距离进行加权平均,将加权平均结果作为障碍物中心的距离;将障碍物中心的距离确定为深度图对应的障碍物距离。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京迈格威科技有限公司,未经北京迈格威科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010623819.9/2.html,转载请声明来源钻瓜专利网。