[发明专利]基于TOF深度相机的体积测量方法及装置有效
申请号: | 202110046765.9 | 申请日: | 2021-01-14 |
公开(公告)号: | CN112857219B | 公开(公告)日: | 2021-11-16 |
发明(设计)人: | 张维忠;刘增辉;张弛;张宏峰;袁翠梅;李永泮;陈天宇 | 申请(专利权)人: | 青岛大学威海创新研究院;青岛大学;青岛点之云智能科技有限公司 |
主分类号: | G01B11/00 | 分类号: | G01B11/00 |
代理公司: | 北京细软智谷知识产权代理有限责任公司 11471 | 代理人: | 刘明华 |
地址: | 264200 山*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 tof 深度 相机 体积 测量方法 装置 | ||
1.一种基于TOF深度相机的体积测量方法,其特征在于,包括:
获取TOF深度相机返回的深度图像;所述深度图像包括相邻的第一帧深度图像和第二帧深度图像;
对所述第一帧深度图像和第二帧深度图像去噪声处理;
选取分别经所述噪声处理后的第一帧深度图像的第一特征区域和第二帧深度图像的第二特征区域,以多个遍历速度对所述第一特征区域的每个像素点进行遍历,并将当前像素点的深度值与所述第二特征区域中对应的目标像素点的深度值进行匹配,获取多个相应的总相似程度值;
确定多个总相似程度值中的最大总相似程度值对应的遍历速度为当前时刻的瞬时速度;
根据所述瞬时速度计算包裹体积。
2.根据权利要求1所述的方法,其特征在于,所述获取TOF深度相机返回的深度图像,包括:
采用TOF深度相机拍摄传送带上的包裹,获取深度流;
将所述深度流转换为深度图像;
其中,所述TOF深度相机设置在传送带的正上方,其拍摄方向垂直于所述传送带。
3.根据权利要求1所述的方法,其特征在于,所述对所述第一帧深度图像和第二帧深度图像去噪声处理,包括:
对所述第一帧深度图像和第二帧深度图像进行形态学处理;
所述形态学处理包括通过图像腐蚀和滤波对第一帧深度图像和第二帧深度图像进行去噪声处理。
4.根据权利要求1所述的方法,其特征在于,所述以多个遍历速度对所述第一特征区域的每个像素点进行遍历,包括:
获取所述第一帧深度图像和第二帧深度图像的时间差,据所述时间差和预设的初始遍历速度计算传送带的行进距离;
根据像素点的深度值计算像素点与相机镜面之间的垂直高度值,根据所述高度值和相机在沿传送带方向的半视角计算出像素点高度下每个像素对应的实际距离;
根据所述行进距离和实际距离计算像素点经过所述时间差在第二帧深度图像中应前进的像素点个数;
选取当前像素点及其周围八个像素点,根据所述像素点个数找到在第二帧深度图像中所述当前像素点对应的目标像素点及目标像素点周围八个像素点。
5.根据权利要求4所述的方法,其特征在于,所述将当前像素点的深度值与所述第二帧深度图像中对应的目标像素点的深度值进行匹配,获取多个相应的总相似程度值,包括:
匹配当前像素点和目标像素点的深度值;
如果所述深度值的差值的绝对值大于等于预设阈值,则此像素点匹配失败;如果匹配失败的像素点代表位置的高度高于目标像素点代表位置的高度,则获取所述当前像素点的单个像素相似程度值,并将其加到总相似程度值上;
如果所述深度值的差值的绝对值小于预设阈值,则所述像素点匹配成功,对其加权处理后,则得到单个像素相似程度值,并将其加到总相似程度值上。
6.根据权利要求5所述的方法,其特征在于,所述加权处理,包括:
根据像素点高度值判断像素点对应的位置是否在货物上;
如果不在货物上,则设置为第一权重;
如果在货物上,则通过周围八个像素点深度值的方差判断像素点和目标像素点对应的位置是否都在货物边缘;
如果任意一个不在货物边缘上,则设置为第一权重;
如果都在货物边缘上,则将当前像素点的周围八个像素点与目标像素点的周围八个像素点做相对应的比对,任一对像素点的差值的绝对值小于预设阈值时,此对像素点点匹配成功,统计八对像素点的成功匹配对数;设置第一阈值和第二阈值;
当所述成功匹配对数小于等于第一阈值时,则设置为第一权重;
当所述成功匹配对数大于第一阈值且小于等于第二阈值时,则设置为第二权重;
当所述成功匹配对数大于第二阈值时,则设置为第三权重。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于青岛大学威海创新研究院;青岛大学;青岛点之云智能科技有限公司,未经青岛大学威海创新研究院;青岛大学;青岛点之云智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110046765.9/1.html,转载请声明来源钻瓜专利网。