[发明专利]一种基于监督学习的深度自动编码器的道路分割方法有效
申请号: | 201810218531.6 | 申请日: | 2018-03-16 |
公开(公告)号: | CN108537132B | 公开(公告)日: | 2021-10-01 |
发明(设计)人: | 芮挺;宋小娜;王新晴;何雷;周遊;杨成松;方虎生;王东;张赛;周飞;张釜凯 | 申请(专利权)人: | 中国人民解放军陆军工程大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/34;G06K9/62 |
代理公司: | 南京天翼专利代理有限责任公司 32112 | 代理人: | 奚铭 |
地址: | 210014 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 监督 学习 深度 自动 编码器 道路 分割 方法 | ||
一种基于监督学习的深度自动编码器的道路分割方法,针对传统分割方法存在的分割精度不高、实时性不好,基于全卷积网络的语义分割方法存在的网络结构复杂、参数调优繁琐、训练周期长等问题,在传统的自动编码器模型中加入监督层,通过监督学习机制来抽取有利于道路图像分割的特征,实现道路图像语义分割。本发明的监督学习机制促使网络结构着重学习区域的轮廓、边界等信息而忽略与分割无关的图像细节,取得了更好的道路分割效果。并且本发明所提出的方法模型简单、训练时间和运行时间都远低于Segnet网络,这对实时性要求很高的道路识别而言是极其关键的。
技术领域
本发明属于计算机视觉技术领域,涉及智能车辆和无人驾驶车辆,具体为一种基于监督学习的深度自动编码器的道路分割方法。
背景技术
无人驾驶车辆道路环境感知问题一直以来是研究的热点,基于机器视觉的道路环境感知方法是其研究重点之一,这类方法主要利用车载摄像机拍摄车辆行驶前方道路图像,利用图像处理和模式识别方法实现道路图像分割,图像语义分割就是机器自动从图像中分割出对象区域,并识别其中的内容,确定无人驾驶车辆的可行驶区域。
传统的图像分割方法大多是基于图像本身的特征提取,需要先在图像上生成不同的区域,再在区域上提取特征,对区域进行分类合并才能得到最终语义分割的结果,过程比较复杂,并且效果也有待提升。随着深度学习持续升温,实践中已证明深度卷积神经网络对图像特征的提取具有很大的优势,但基于卷积神经网络的图像语义分割实时性不好、分割精度也有待提升。2015年,Long等人提出了基于全卷积网络(Fully ConvolutionalNetworks,FCN)的语义分割方法,为语义分割方法提供了一个新思路,此后大量基于FCN的图像语义分割算法层出不穷,语义分割性能得到提升。但是该网络结构非常复杂,参数调优过程漫长,网络训练周期在高性能GPU上仍需高达几周时间。
发明内容
本发明要解决的问题是:针对传统分割方法存在的分割精度不高、实时性不好,基于全卷积网络的语义分割方法存在的网络结构复杂、参数调优繁琐、训练周期长等问题,提出一种简洁有效的道路分割方法。
本发明的技术方案为:一种基于监督学习的深度自动编码器的道路分割方法,用于确定智能车辆或无人驾驶车辆的可行驶道路区域,首先在自动编码器模型中加入监督层,将已知的道路环境图像作为训练样本,利用训练样本的分割图作为监督信息,得到有监督的单层自动编码器,通过训练样本训练后得到有监督的单层自动编码器模型;接着,建立一个有监督的深度自动编码器模型来抽取道路环境分割的深层特征,所述深度自动编码器模型由所述单层自动编码器模型多层堆叠而得,利用训练样本和其道路环境分割图,训练得到所述深度自动编码器模型;最后加载测试样本得到其语义分割图,通过图像处理确定道路环境图像的可行驶道路区域。
所述有监督的深度自动编码器模型的建立为:将深度自动编码器模型的训练分为三组,每组的训练都基于一个单层自动编码器,每一组训练模型是独立的,但整个训练过程中三组是相互关联的,三组单层自动编码器分别为:
1.1)第一组单层自动编码器以原始道路环境图像X作为输入X1,道路分割标签图Xlabel作为监督,输出的重构数据用表示,进行监督学习,以减小重构数据与标签数据Xlabel的误差;
1.2)第二组单层自动编码器提取第一组通过监督学习输出的重构数据作为输入 X2,再一次与道路标签数据Xlabel一起进行监督学习,进一步减小重构数据与标签数据Xlabel的误差;
1.3)第三组单层自动编码器以第一组模型中学习的特征编码H1作为输入X3,以第二组模型中的学习的特征编码H2作为监督,进行监督学习,得到重构数据
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军陆军工程大学,未经中国人民解放军陆军工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810218531.6/2.html,转载请声明来源钻瓜专利网。