[发明专利]一种基于SSD的单类别障碍物识别的检测方法在审
申请号: | 201910591757.5 | 申请日: | 2019-07-02 |
公开(公告)号: | CN110334646A | 公开(公告)日: | 2019-10-15 |
发明(设计)人: | 朱恺晗 | 申请(专利权)人: | 朱恺晗 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 200123 上海市浦*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 障碍物识别 单类别 嵌入式计算机系统 计算机视觉 障碍物检测 分类网络 计算能力 目标物体 网络结构 训练数据 不敏感 障碍物 检测 归类 卷积 尺度 神经 | ||
本发明提供一种基于计算机视觉卷积神经分类网络MobileNetv2作为基础网络结构的Single Shot Multibox Detector(SSD)的单类别障碍物识别的检测方法,该发明将所有物体归类为需要识别的障碍物,使之成为所有目标物体的父类别,从而使得较少的训练数据便可以实现较好的识别结果。利用了SSD对目标的尺度的不敏感的泛化能力以及其相对较快的计算速度,从而达到在计算能力有限的嵌入式计算机系统上拥有良好障碍物检测效果。
技术领域
本发明属于计算机视觉以及人工智能领域,涉及一种障碍物检测方法,具体涉及一种基于SSD的障碍物检测方法。
背景技术
目前的障碍物检测,主要是使用超声波雷达、激光雷达、双目摄像头等设备,去感知周围的3D空间,从而检测到障碍物。这些方法需要复杂且昂贵的器材去实现障碍物识别的目的。已有的通过卷积神经网络去识别障碍物的方法,针对每一类别的障碍物都需要大量的数据,并且,这些神经网络往往存在潜在的问题:基于R-CNN的传统目标检测方法,在分析图像的时候非常缓慢;基于YOLO的方法在不同尺度的物体上泛化能力不够完善,以及较小的目标容易被忽略(由于其每个格子只能有一定数量的预测)。
SSD很好的解决了R-CNN与YOLO的短板,其在拥有比R-CNN更快的速度以及比YOLO更好的泛化能力的同时,保证了较小的目标不被忽略。基于SSD的障碍物检测同时能够更精准地检测目标物体。相比起YOLO,SSD在识别的精准度方面,有绝对的优势。此外,使用SSD可以将硬件的要求降低至一个摄像头以及一个处理模块,舍去了专业器材,使得大众用户能够得益于障碍物检测。由于此障碍物检测只使用一个标签,训练后的神经网络能够在数据量不多的情况下获得足够精准的检测。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种基于SSD的障碍物检测方法,用以合理准确地检测障碍物。本发明所指的障碍物检测方法可用于自动驾驶和老年人、病人无人看护时的行动保护设备。
为实现上述目的及其他相关目的,本发明提供一种基于SSD的障碍物检测方法。
一种基于SSD的障碍物检测方法,所述基于SSD的障碍物检测方法包括:
步骤一,收集的用于训练神经网络的数据,其特征为无固定大小的RGB图像,该应用的图像是有内容(或称为障碍物的物体)的。
步骤二,人工将图像中的障碍物进行标记,其特征在于标记框的长方形且无旋转,且只有一个类别(障碍物类别)。
步骤三,将收集的图像数据作为神经网络的输入,其输出与标记框进行比对并产生一个差离值,通过一个给定的函数进行运算,其特征在于在SSD给定的函数运算基础上,添加自行采集的数据,建立机器学习模式,培育神经网络的感知能力。
步骤四,本发明具备结果输出能力,其特征在于:使用已在COCO数据集上训练成熟的神经网络,叠加本发明前面步骤所采集的训练数据,使神经网络具备识别障碍物的能力并将结果输出。
步骤五,本发明可通过多种设备输出结果,其特征在于,本发明是一个应用软件,可根据不同显示设备的接口,定制显示方式,将训练结束的神经网络使用到设备上。
如上所述,本发明所述的基于SSD的障碍物检测方法,具有以下有益效果:
SSD拥有比R-CNN类的识别方法更快的速度以及比YOLO更好的泛化能力,也保证了较小的目标不被忽略。基于SSD的障碍物检测同时能够更精准的检测目标物体。相比起YOLO,SSD 在识别的精准度有绝对的优势。使用此方法进行障碍物检测无需使用高昂的激光雷达或者此外,使用SSD可以将硬件的要求降低至一个摄像头以及一个处理模块,舍去了专业器材,使得大众用户能够得益于障碍物检测。由于此障碍物检测只使用一个标签,训练后的神经网络能够在数据量不多的情况下获得足够精准的检测。
附图说明
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于朱恺晗,未经朱恺晗许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910591757.5/2.html,转载请声明来源钻瓜专利网。