[发明专利]一种发票文本检测方法在审
申请号: | 201910723111.8 | 申请日: | 2019-08-06 |
公开(公告)号: | CN110738092A | 公开(公告)日: | 2020-01-31 |
发明(设计)人: | 张欢;李爱林;张仕洋;周先得 | 申请(专利权)人: | 深圳市华付信息技术有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/32;G06K9/34;G06K9/62 |
代理公司: | 50219 重庆百润洪知识产权代理有限公司 | 代理人: | 刘子钰 |
地址: | 518000 广东省深圳市前海深港合作区前*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 发票 文本检测 关键点 关键点检测 检测 图像信息采集 关键区域 关键位置 输出图像 输入图像 图像发生 准确度 鲁棒性 逆映射 文本框 对齐 检出 剪裁 可用 轻量 文本 输出 分类 保证 网络 | ||
本发明公开的属于发票文本检测技术领域,具体为一种发票文本检测方法,该发票文本检测方法的具体检测步骤如下:S1:输入图像:将需要检测发票文本的图像信息采集输入;S2:发票关键点检测与发票关键区域剪裁对齐;S3:发票文本框检测;S4:发票分类与坐标逆映射;S5:输出图像,准确度高:得益于选取发票上最明显的两个位置作为关键点,本方法第一步的关键点检测较为稳定与精确。在获取关键点后,发票中关键位置区域也能够迅速得出。鲁棒性高:即使发票图像发生旋转等变化,发票关键点仍能被稳定检出,保证了结果输出的稳定性。速度快:本方法的步骤S2和步骤S3是较为简单的任务,可用轻量网络进行解决,相对来说速度较快。
技术领域
本发明涉及发票文本检测技术领域,具体为一种发票文本检测方法。
背景技术
普通发票和专用发票是日常生活中经常使用的两种发票,两者票据面上的信息模式有相同部分也存在一定的差异,如何对这两种发票中的关键文本进行准确快速的检测是票据识别技术的关键。
现有方法之一是使用传统机器学习方法,如先对图像进行去噪处理,再进行灰度化,二值化,轮廓提取,形态学变换等方法确定票据位置以及文本位置,但该方法鲁棒性差、准确率低,不适合商用。
现有方法之二是使用深度学习方法中的通用物体检测方法对发票文本框进行检测,如使用物体检测网络先对发票进行分类与检测,然后在检测到的发票区域再使用检测网络对文本框进行检测,该方法的准确率大大高于传统方法,但通用物体检测方法往往只能检测水平矩形框,当文本发生倾斜时,水平矩形框里会留下太多空白无效区域,给检测效果带来影响。
现有方法之三是使用深度学习方法中的专用文本检测网络对发票进行文本检测,不少专用文本检测方法支持倾斜文本框检测,但这种网络往往十分臃肿,模型体积较大,对硬件要求高,对移动端部署不方便。
发明内容
本发明的目的在于提供一种发票文本检测方法,以解决上述背景技术中提出的现有的识别方法鲁棒性差、准确率低、不适合商用,通用物体检测方法往往只能检测水平矩形框,十分臃肿,模型体积较大,对硬件要求高,对移动端部署不方便的问题。
为实现上述目的,本发明提供如下技术方案:一种发票文本检测方法,该发票文本检测方法的具体检测步骤如下:
S1:输入图像:将需要检测发票文本的图像信息采集输入,使得输入的图像信息在显示区域内;
S2:发票关键点检测与发票关键区域剪裁对齐:对这关键点的检测,使用但不限于用关键点检测方法或者先对关键点进行语义分割再求区域坐标均值,最终可得到关键区域的水平对齐图像;
S3:发票文本框检测:在获得水平对齐好的图像后,使用文本检测方法对该图像文本进行检测,包括但不限于传统检测方法或深度学习检测方法;
S4:发票分类与坐标逆映射:检测到文本框后,可以根据文本框的数目判断该发票是普票还是专票,由于普票比专票多一个校验码,统计检测框有6个即为专用发票,有7个则为普通发票,检测到文本框后,将文本框顶点坐标先映射回原图,在原图上再进行裁减,用之前求得投影矩阵的逆矩阵左乘坐标即可得到原图坐标,文本框顶点坐标映射回原图后,在原图上裁剪文字框;
S5:输出图像:将上述处理后的图像保存输出。
优选的,所述S2中取发票代码和发票号码的中心点作为检测的发票的关键点。
优选的,所述对关键点进行语义分割再求区域坐标均值的具体步骤为:用语义分割网络先分割出发票代码和发票号码的区域,再对分割出区域的像素集合坐标求均值,可得到关键点的坐标。
优选的,所述步骤S2和步骤S3均采用轻量级的文本检测模型进行图像处理。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市华付信息技术有限公司,未经深圳市华付信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910723111.8/2.html,转载请声明来源钻瓜专利网。