[发明专利]基于位置检测模型的图片分类方法及其相关设备在审
申请号: | 202011310566.6 | 申请日: | 2020-11-20 |
公开(公告)号: | CN112418206A | 公开(公告)日: | 2021-02-26 |
发明(设计)人: | 谢达荣 | 申请(专利权)人: | 平安普惠企业管理有限公司 |
主分类号: | G06K9/20 | 分类号: | G06K9/20;G06K9/34;G06K9/38;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 深圳市世联合知识产权代理有限公司 44385 | 代理人: | 汪琳琳 |
地址: | 518000 广东省深圳市前海深港合作区前*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 位置 检测 模型 图片 分类 方法 及其 相关 设备 | ||
1.一种基于位置检测模型的图片分类方法,其特征在于,包括下述步骤:
接收用户终端发送的携带有数据单位置信息的多张标准数据单图片,并基于预设的角度多次平面旋转所述标准数据单图片,生成第一训练图片;
基于所述第一训练图片训练预设的位置检测模型,获得训练后的位置检测模型,其中,所述位置检测模型用于修正图片的方向;
将所述第一训练图片输入至所述训练后的位置检测模型中,获得方向修正图片;
对所述方向修正图片进行关键区域标注操作,得到携带有关键文字区域的第二训练图片,并基于所述第二训练图片训练预设的场景文字检测模型,获得训练后的场景文字检测模型;
将所述第二训练图片输入至所述训练后的场景文字检测模型中,获得目标关键文字区域,并基于所述目标关键文字区域生成文字图片;
基于所述文字图片和预设的分类标识生成重叠文字图片和模糊文字图片,并基于所述重叠文字图片和模糊文字图片训练预设的图片分类模型,获得训练后的图片分类模型;
接收待分类数据单图片,将所述待分类数据单图片依次经过所述训练后的位置检测模型、训练后的场景文字检测模型以及训练后的图片分类模型,获得所述待分类数据单图片的类别。
2.根据权利要求1所述的基于位置检测模型的图片分类方法,其特征在于,所述基于所述目标关键文字区域生成文字图片的步骤包括:
基于所述目标关键文字区域对所述方向修正图片进行切割操作,获得区域图片;
对所述区域图片进行仿射变换,获得文字图片。
3.根据权利要求1所述的基于位置检测模型的图片分类方法,其特征在于,所述基于所述文字图片和预设的分类标识生成重叠文字图片和模糊文字图片的步骤包括:
将所述文字图片输出至所述用户终端的显示设备,以进行文字图片展示;
向所述用户终端输出请求选择预设的分类标识的信号;
当接收到所述用户终端发送的目标分类标识的信号时,基于所述目标分类标识的信号生成已标注的文字图片,其中,所述目标分类标识的信号与所述请求选择预设的分类标识的信号相对应;
基于预设的最大稳定值区域算法调整所述已标注的文字图片,获得初始二值化图片;
对所述初始二值化图片进行去噪操作,以去除文字之外的噪声,获得目标二值化图片;
提取所述目标二值化图片中的文字图层,叠加所述文字图层和所述已标注的文字图片,获得重叠文字图片;
基于预设的随机大小和内容的卷积核,对所述已标注的文字图片进行卷积操作,获得模糊文字图片。
4.根据权利要求1所述的基于位置检测模型的图片分类方法,其特征在于,所述基于所述第二训练图片训练预设的场景文字检测模型,获得训练后的场景文字检测模型的步骤包括:
基于所述关键文字区域对所述第二训练图片进行随机裁剪,获得裁剪图片;
基于所述裁剪图片训练预设的场景文字检测模型,获得训练后的场景文字检测模型。
5.根据权利要求4所述的基于位置检测模型的图片分类方法,其特征在于,所述基于所述关键文字区域所述对所述第二训练图片进行随机裁剪,获得裁剪图片的步骤包括:
识别关键文字区域的相对两角的坐标(X1,Y1)和(X2,Y2),并识别所述第二训练图片的长度h和宽度w;
生成不可裁剪区域的相对两角的坐标(X1–z×w,Y1–z×h)和(X2–z×w,Y2–z×h),其中,z为预设的不可裁剪阈值;
基于所述不可裁剪区域的相对两角的坐标确定不可裁剪区域和可裁剪区域;
基于预设的随机值对所述可裁剪区域进行裁剪,获得裁剪图片。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平安普惠企业管理有限公司,未经平安普惠企业管理有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011310566.6/1.html,转载请声明来源钻瓜专利网。