[发明专利]一种基于端到端全卷积神经网络的场景文本检测方法有效
申请号: | 201810046076.6 | 申请日: | 2018-01-17 |
公开(公告)号: | CN108288088B | 公开(公告)日: | 2020-02-28 |
发明(设计)人: | 李玺;王芳芳;赵黎明 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06F16/35 |
代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 傅朝栋;张法高 |
地址: | 310058 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于端到端全卷积神经网络的场景文本检测方法,用于在自然场景的图像中发现多方向文本位置的问题。具体包括如下步骤:获取用于训练场景文本检测的多个图像数据集,并定义算法目标;利用全卷积特征提取网络对图像进行特征学习;对特征图上的每个样本点预测实例级别的仿射变换矩阵,根据预测的仿射变换变形采样网格对文本进行特征表达;对候选文本的特征向量进行分类,同时进行坐标回归和仿射变换回归,联合优化模型;使用所述学习框架检测文本的精确位置;对网络输出的包围框集合进行非极大值抑制得到最终文本检测结果。本发明用于真实图像数据的场景文本检测,对多方向、多尺度、多语种、形状畸变等各类复杂情况具有较佳的效果和鲁棒性。 | ||
搜索关键词: | 一种 基于 端到端全 卷积 神经网络 场景 文本 检测 方法 | ||
【主权项】:
1.一种基于端到端全卷积神经网络场景文本检测方法,其特征在于,包括以下步骤:S1、获取用于训练显著性检测的多组图像数据集,并定义算法目标;S2、利用全卷积特征提取网络对组内图像进行特征学习;S3、对特征图上的每个样本点预测实例级别的仿射变换矩阵并根据预测的仿射变换变形采样网格对文本进行特征表达;S4、对候选文本的特征向量进行分类,同时进行坐标回归和仿射变换回归,联合优化模型;S5、使用由S1~S4建立的端到端联合学习框架检测文本的精确位置;S6、对网络输出的包围框集合进行非极大值抑制得到最终文本检测结果。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201810046076.6/,转载请声明来源钻瓜专利网。