[发明专利]基于BiSeNet的自动驾驶场景下的语义分割方法有效
申请号: | 202010972176.9 | 申请日: | 2020-09-16 |
公开(公告)号: | CN112070049B | 公开(公告)日: | 2022-08-09 |
发明(设计)人: | 柯逍;蒋培龙;黄艳艳 | 申请(专利权)人: | 福州大学 |
主分类号: | G06V10/26 | 分类号: | G06V10/26;G06V10/774;G06V20/10;G06V20/58;G06K9/62;G06N3/04 |
代理公司: | 福州元创专利商标代理有限公司 35100 | 代理人: | 陈明鑫;蔡学俊 |
地址: | 350108 福建省福州市*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 bisenet 自动 驾驶 场景 语义 分割 方法 | ||
本发明涉及一种基于BiSeNet的自动驾驶场景下的语义分割方法,包括以下步骤:步骤S1:采集城市街道图像数据,并预处理;步骤S2:对预处理后的图像数据进行标注,得到标注后的图像数据;步骤S3:对标注后的图像数据进行数据增强,并将增强后的图像数据作为训练集;步骤S4:构建BiSeNet神经网络模型,并基于训练集训练模型;步骤S5:对摄像头采集的视频信息进行预处理,根据训练后的BiSeNet神经网络模型对摄像头中的城市街道进行语义分割。本发明能够有效提高自动驾驶的安全性和对道路场景分割的准确性、快速性。
技术领域
本发明涉及模式识别与计算机视觉领域,具体涉及一种基于BiSeNet的自动驾驶场景下的语义分割方法。
背景技术
图像语义分割是现代自动驾驶系统的一个必要部分,因为对汽车周围场景的准确理解是导航和动作规划的关键。语义分割可以帮助自动驾驶车辆识别一个图片中的可行驶区域。从全卷积网络(FCN,Fully Convolutional Networks)的出现开始,卷积神经网络逐渐成为处理语义分割任务的主流方法,其中很多是直接从其他领域的卷积神经网络方法中借鉴过来的。近十年在语义分割数据集的创建和算法提升方面,多位学者付出了很多努力。得益于深度学习理论的发展,因此在视觉场景理解的子领域中获得了不少进步。深度学习的缺点是需要大量的标注数据,因而耗时巨大,但瑕不掩瑜。
发明内容
有鉴于此,本发明的目的在于提供一种基于BiSeNet的自动驾驶场景下的语义分割方法,能够有效提高自动驾驶的安全性和对道路场景分割的准确性、快速性。
为实现上述目的,本发明采用如下技术方案:
一种基于BiSeNet的自动驾驶场景下的语义分割方法,包括以下步骤:
步骤S1:采集城市街道图像数据,并预处理;
步骤S2:对预处理后的图像数据进行标注,得到标注后的图像数据;
步骤S3:对标注后的图像数据进行数据增强,并将增强后的图像数据作为训练集;
步骤S4:构建BiSeNet神经网络模型,并基于训练集训练模型;
步骤S5:对摄像头采集的视频信息进行预处理,根据训练后的BiSeNet神经网络模型对摄像头中的城市街道进行语义分割。
进一步的,所述步骤S1具体为:
步骤S11:分析城市街道场景下需要进行语义分割的类别;
步骤S12:采集城市街道图像;
步骤S13:基于步骤S11得到的语义分割的类别,对采集的城市街道图像进行预处理,剔除掉不符合预设要求图片。
进一步的,所述语义分割的类别具体包括公路、人行道、停车场、铁路、人、小车、卡车、公共汽车、火车、摩托车、自行车、大篷车、拖车、建筑物、墙壁、围栏、护栏、桥、隧道、杆、交通标志、交通信号灯、植物、天空和其他。
进一步的,所述步骤S2具体为:
步骤S21:采用labelme对每张图像框出类别边缘,将多边形框的位置信息和分类信息保存于json文件中;
步骤S22:根据标注生成的json文件,利用labelme统一生成符合预设要求的文件。
进一步的,所述步骤S22生成的文件包括jpeg原图,语义分割类别mask图,语义分割类别可视化图片。
进一步的,所述步骤S3具体包括:
对标注后的图像数据中所有图片进行翻转变换,对应的mask图相应发生改变,将进行翻转变换的图片加入新的数据集中;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于福州大学,未经福州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010972176.9/2.html,转载请声明来源钻瓜专利网。