[发明专利]一种基于机器视觉的自主巡检的方法有效
申请号: | 202011235319.4 | 申请日: | 2020-11-09 |
公开(公告)号: | CN112102395B | 公开(公告)日: | 2022-05-20 |
发明(设计)人: | 付守海;李方;陈曦;周伟亮;李培俊;李锦培 | 申请(专利权)人: | 广东科凯达智能机器人有限公司 |
主分类号: | G06T7/66 | 分类号: | G06T7/66;G06T7/73;G06T5/00;G07C1/20;H04N5/232 |
代理公司: | 佛山市禾才知识产权代理有限公司 44379 | 代理人: | 刘羽波 |
地址: | 528000 广东省佛山市顺德区大良街道五沙社区新*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 机器 视觉 自主 巡检 方法 | ||
1.一种基于机器视觉的自主巡检的方法,其特征在于:
建立识别模型,所述识别模型通过多组训练数据训练得出,其中每一组数据包括:检测目标的照片与用于识别检测目标类型的识别信息;
根据不同检测目标的标准建设参数标准,量化定位目标与拍摄目标的坐标信息,将定位目标的坐标信息标记为第一坐标,将多个拍摄目标的坐标信息标记为多个第二坐标,将所述第一坐标与多个第二坐标存入数据库;
云台相机对检测目标进行拍摄,获取一张含有定位目标的原始图像,将原始图像输入到所述识别模型中,获取识别结果,所述识别结果为识别所述检测目标的类型,根据识别结果调用对应的第一坐标与第二坐标;
根据第一坐标与第二坐标获取云台相机的转动角度,根据转动角度转动所述云台相机,使得所述云台相机的拍摄中心移动到单个拍摄目标,所述云台相机进行相应比例放大拍摄,获取该单个拍摄目标的放大图像,
继续调用其余的第二坐标,将单个检测目标所有的拍摄目标进行拍照检测,获取所有所述拍摄目标的放大图像,并将所有放大图像上传至云端;
所述进行相应比例放大拍摄,包括获取放大比例,其中获取放大比例包括以下步骤:
获取原始图像的长度与宽度的尺寸;
获取拍摄目标在所述原始图像中的长度与宽度的尺寸;
拍摄目标和原始图像的宽度比与所述检测目标和原始图像的长度比进行比对,若长度比小于宽度比,则所述长度比为放大比例,若所述长度比大于宽度比,则所述宽度比为放大比例;
获取识别结果包括:使用图像降噪算法对所述原始图像进行降噪处理,提高所述原始图像的清晰度
使用图像增强方法增强所述原始图像的边缘信息;
通过卷积神经网络识别在所述原始图像中的所述定位目标;
所述获取云台相机的转动角度前,需要使所述云台相机的拍摄中心与定位目标的中心重合;
以原始图像的中心点为原点,使用计算几何中心的计算方式构建二维十字坐标系;
使用所述云台相机对一个参照物在不同距离下进行拍摄,获取所述参照物在不同拍摄距离下的像素值,通过多组像素值与拍摄距离之间的比例关系获取像素值与距离的线性关系,通过所述线性关系确认所述云台相机在一个像素值的像素距离;
获取当前原始图像的像素值,通过所述像素距离计算所述云台相机到所述检测目标之间的实际距离;
将所述云台相机与所述检测目标之间的实际距离代入公式一计算得出云台相机的拍摄中心转动到第二坐标的旋转度数,其中dx为云台相机到定位目标的直线距离,lx为云台相机到定位目标的水平距离;
所述获取云台相机的转动角度,包括调用第一坐标与第二坐标,通过将第一坐标与第二坐标代 入所述公式一获取所述云台相机的转动角度;在所述云台相机的拍摄中心从第一坐标转动至第二坐标拍摄的过程,等同于在等腰三角形中做余弦定理计算,同样使用第一坐标的数据值代 入公式一中进行计算,得到所述云台相机从第一坐标转动至第二坐标拍摄所需要的水平方向与垂直方向的转动角度。
2.根据权利要求1所述一种基于机器视觉的自主巡检的方法,其特征在于:
所述将定位目标的坐标信息标记为第一坐标,包括获取定位目标的长度、宽度与高度,通过长度、宽度与高度构建一个第一长方体,获取第一长方体的中心点,将第一长方体的中心点标记为第一坐标;
将多个拍摄目标的坐标信息标记为多个第二坐标,包括获取拍摄目标的长度、宽度与高度,通过长度、宽度与高度构建一个第二长方体,获取第二长方体的中心点,以所述第一坐标为中心点构建一个三维坐标系,获取第二长方体的中心点在三维坐标系定位,并标记为第二坐标。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东科凯达智能机器人有限公司,未经广东科凯达智能机器人有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011235319.4/1.html,转载请声明来源钻瓜专利网。