[发明专利]一种发票目标区域的定位方法、装置、设备及介质在审
申请号: | 202010010700.4 | 申请日: | 2020-01-06 |
公开(公告)号: | CN111241966A | 公开(公告)日: | 2020-06-05 |
发明(设计)人: | 黎贤钊;张学习;彭健彬 | 申请(专利权)人: | 广东工业大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/20;G06N3/04;G06T3/40;G06T5/00;G06T7/90;G06N3/08 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 黄忠 |
地址: | 510060 广东省*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 发票 目标 区域 定位 方法 装置 设备 介质 | ||
本申请公开了一种发票目标区域的定位方法、装置、设备及介质,其方法包括:获取待测图像;将待测图像输入到训练好的神经网络中,对待测图像中的目标区域进行检测;若存在目标区域,则对目标区域进行定位;对定位的目标区域进行分类,并得到分类后的目标区域的图像坐标。本申请通过采用深度学习网络代替传统的图像匹配方法,能比传统算法更好在检测速度与检测精度之间作更好的平衡,且相对于传统图像匹配算法具有更好的鲁棒性。
技术领域
本申请涉及目标检测技术领域,尤其涉及一种发票目标区域的定位方法、装置、设备及介质。
背景技术
发票在社会经济活动中具有极其重要的意义和作用。由于发票上具有很多重要的信息需要我们录入计算机当中,而发票信息的录入对于我们来说是一件繁琐而重复性高的工作。对于重复性高的工作,我们可以用自动化的算法来替代,以提高工作效率。但是发票的录入又不是纯碎的重复性工作,需要我们人工去识别发票的信息才能进行发票录入。因此,我们可以利用计算机视觉去代替人工的识别。计算机视觉去代替人工的识别,需要两个步骤,首先是对输入的图像进行目标检测,通过目标检测出需要的识别出来的信息的位置,然后再进行识别。
现有的的文本定位方法中,通常使用连通域分析和滑动窗口分类法进行图像文本定位。文本特征主要有文本的颜色、边界、笔画和纹理等特征。连通域分析是一种类似于图形的算法,在实现过程中,使用结构模式识别方法确定文本区域。使用统计学模型有利于提高效率。滑动窗口分类方法通过条件随机场、形态学操作或者图形方法可以进一步地将字符分类响应为正的候选文本区域正组成文本区域,该方法简单,适应性广。
使用滑动窗口进行目标区域的检测,是一种很常见检测算法。它主要分为两个步骤:提取特征和特征匹配。提取特征常用的算子有Sobel、Canny、Hog、SIFT等。特征提取就是通过特征提取算子提取原图像的一些特征,然后使用滑动检测窗口以一定的步长对待检测图像进行特征匹配判定。设定一个匹配阈值,若超过匹配阈值,则输出目标区域的坐标。使用滑动窗口匹配特征的算法在一定程度上能比较有效地检测出目标区域。但是滑动窗口在遍历时候需要进行大量的计算,这导致了在检测环节可能对硬件性能有很高的要求才能保证系统的检测环节不需要大量的计算时间。因此,该算法可能会在提高精度的同时,而会产生高延迟。
发明内容
本申请实施例提供了一种发票目标区域的定位方法、装置、设备及介质,使得目标检测能更好地提升检测精度的同时而又不会产生过高的系统延迟。
有鉴于此,本申请第一方面提供了一种发票目标区域的定位方法,所述方法包括:
获取待测图像;
将所述待测图像输入到训练好的神经网络中,对所述待测图像中的目标区域进行检测;
若存在所述目标区域,则对所述目标区域进行定位;
对所述定位的目标区域进行分类,并得到分类后的目标区域的图像坐标。
可选的,在将所述待测图像输入到训练好的神经网络中,对所述待测图像中的目标区域进行检测之前,还包括:
将所述待测图像进行图像尺度归一化处理,使得所述待测图像输出为满足神经网络输入尺寸的图像。
可选的,所述将所述待测图像进行图像尺度归一化处理,使得所述待测图像输出为满足神经网络输入尺寸的图像具体为:
采用双线性插值法对所述待测图像进行图像尺度归一化处理,使得所述待测图像输出为满足神经网络输入尺寸的图像。
可选的,所述将所述待测图像输入到神经网络中对图像中的目标区域进行检测具体为:
将所述待测图像输入到Darknt52网络中对图像中的目标区域进行检测。
可选的,所述对目标区域进行定位具体为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东工业大学,未经广东工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010010700.4/2.html,转载请声明来源钻瓜专利网。