[发明专利]一种复杂背景下的维吾尔文检测方法、系统及电子设备在审
申请号: | 201810232999.0 | 申请日: | 2018-03-20 |
公开(公告)号: | CN110309825A | 公开(公告)日: | 2019-10-08 |
发明(设计)人: | 彭勇;冯良炳 | 申请(专利权)人: | 中国科学院深圳先进技术研究院 |
主分类号: | G06K9/32 | 分类号: | G06K9/32;G06N3/04 |
代理公司: | 深圳市科进知识产权代理事务所(普通合伙) 44316 | 代理人: | 赵勍毅 |
地址: | 518055 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 检测 卷积神经网络 尺寸特征 复杂背景 电子设备 定位网络 数据样本 图像 图谱 文本 读取 文字识别技术 特征提取 图谱检测 图像构建 图像输入 网络组件 准确率 构建 申请 | ||
1.一种复杂背景下的维吾尔文检测方法,其特征在于,包括以下步骤:
步骤a:读取维吾尔文图像,并根据维吾尔文图像构建数据样本集;
步骤b:构建深层卷积神经网络,并采用所述数据样本集对深层卷积神经网络进行训练;
步骤c:将待检测维吾尔文图像输入训练好的深层卷积神经网络,通过特征提取网络组件提取所述待检测维吾尔文图像的多尺寸特征图谱,将提取的多尺寸特征图谱输入到文本定位网络组件,所述文本定位网络组件根据输入的多尺寸特征图谱检测出待检测维吾尔文图像中维吾尔文的位置信息。
2.根据权利要求1所述的复杂背景下的维吾尔文检测方法,其特征在于,在所述步骤a中,所述读取维吾尔文图像还包括:将读取的维吾尔文图像进行图像尺寸处理,同时对图像尺寸处理后的维吾尔文图像进行减RGB均值操作。
3.根据权利要求2所述的复杂背景下的维吾尔文检测方法,其特征在于,在所述步骤a中,所述根据维吾尔文图像构建数据样本集具体为:对所述维吾尔文图像进行文本位置标注,得到ground-truth框,并根据标注后的维吾尔文图像构建数据样本集;其中,所述文本位置标注包括文本框的中心坐标、文本框的宽和高、以及文本框的字符内容。
4.根据权利要求3所述的复杂背景下的维吾尔文检测方法,其特征在于,在所述步骤b中,所述采用数据样本集对深层卷积神经网络进行训练具体包括:
步骤b1:训练特征提取网络组件;
步骤b2:采用随机初始化的方式初始化文本定位网络组件参数,并根据定义的文本定位网络组件的损失函数对文本定位网络组件参数进行调整;
步骤b3:根据网络的目标函数对整个网络进行端对端的微调,获得最终的训练结果;
步骤b4:输出维吾尔文图像中维吾尔文字符的位置信息,即预测的文本框与默认框的中心坐标偏置、宽高偏置以及维吾尔文文本的置信度得分,为默认框确定中心坐标、尺寸大小和宽高比例;
步骤b5:判断ground-truth框与默认框之间的重叠率是否大于预定阈值,如果ground-truth框与默认框之间的重叠率大于预定阈值,则将ground-truth框与默认框进行匹配;
步骤b6:将ground-truth框与默认框进行匹配后,选取正负样本,并使得负样本:正样本=3:1。
5.根据权利要求4所述的复杂背景下的维吾尔文检测方法,其特征在于,在所述步骤b3中,所述网络的目标函数为:
上述公式中,Losslocation代表定位损失,Loss代表总的损失,N代表匹配的默认框数目,g代表ground-truth框的参数,α代表平衡因子,设置为1,l代表预测的文本框,d代表默认框,cx,cy代表默认框的中心坐标,W代表默认框的宽度,h代表默认框的高度,表示第i个默认框与类别p的第j个ground-truth框相匹配,如果第i个默认框与类别p的第j个ground-truth框不匹配,则
置信度损失:
上述公式中,置信度损失Lossconfidence是softmax损失函数,输入为每一个类的置信度c。
6.一种复杂背景下的维吾尔文检测系统,其特征在于,包括:
图像读取模块:用于读取维吾尔文图像;
文本标注模块:用于根据维吾尔文图像构建数据样本集;
网络构建模块:用于构建深层卷积神经网络;
网络训练模块:用于采用所述数据样本集对深层卷积神经网络进行训练;
文字检测模块:用于将待检测维吾尔文图像输入训练好的深层卷积神经网络,通过特征提取网络组件提取所述待检测维吾尔文图像的多尺寸特征图谱,将提取的多尺寸特征图谱输入到文本定位网络组件,所述文本定位网络组件根据输入的多尺寸特征图谱检测出待检测维吾尔文图像中维吾尔文的位置信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院深圳先进技术研究院,未经中国科学院深圳先进技术研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810232999.0/1.html,转载请声明来源钻瓜专利网。