[发明专利]基于卷积神经网络的视频语义分割方法有效
申请号: | 201910420733.3 | 申请日: | 2019-05-20 |
公开(公告)号: | CN110147763B | 公开(公告)日: | 2023-02-24 |
发明(设计)人: | 何胜阳;任广辉;樊如愿;熊阿龙;魏俊杰 | 申请(专利权)人: | 哈尔滨工业大学 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V10/774;G06T7/11 |
代理公司: | 哈尔滨市松花江专利商标事务所 23109 | 代理人: | 时起磊 |
地址: | 150001 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 基于卷积神经网络的视频语义分割方法,属于自动驾驶技术领域。为了解决现有自动驾驶领域对实时的目标分割处理速度过慢的问题。本发明将卷积神经网络模型应用到视频语义分割中,并采用注意力机制和深度可分离卷积,构建W形网络,并在W形网络的基础上利用帧间相关信息,结合光流场的特征聚合算法,来实现不同帧之间的特征传播,进一步提升视频语义分割的速度,大大降低分割所需要的时间。本发明用于视频语义分割。 | ||
搜索关键词: | 基于 卷积 神经网络 视频 语义 分割 方法 | ||
【主权项】:
1.基于卷积神经网络的视频语义分割方法,其特征在于,包括以下步骤:步骤一:构建基于注意力机制的W形网络模型,W形网络模型包括两条支路:一条支路由图像输入经过3次卷积进行下采样得到八分之一原图像精度的特征图;另外一条支路通过Xception模块或者ResNet模块进行深度下采样,分别得到16倍和32倍下采样特征图,将两个下采样特征图进行通道注意力模型处理后,分别进行2倍、4倍的双线性插值上采样得到两个八分之一原图像精度的特征图;将该支路下的2倍、4倍的双线性插值上采样作为两个子支路,分为记为第2支路和第3支路;之后所有支路得到的八分之一原图像精度的特征图通过特征拼接、卷积、批标准化、ReLU激活融合后再次经过通过通道注意力模块得到深层特征;然后经过8倍的双线性插值上采样最终得到与原图像尺寸一致的语义分割结果;步骤二:在W形网络的基础上,利用光流场算法对帧与帧之间的特征进行传播和融合;步骤三:将选取的数据集中的样本输入到整体网络进行视频语义分割训练和测试,得到训练好的基于卷积神经网络的视频语义分割模型;利用训练好的基于卷积神经网络的视频语义分割模型进行视频语义分割。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学,未经哈尔滨工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910420733.3/,转载请声明来源钻瓜专利网。
- 上一篇:一种嵌入式消防误报消除系统
- 下一篇:一种基于机器学习的静态手势识别方法