[发明专利]一种基于深度学习的票据分拣方法有效
申请号: | 201910787567.0 | 申请日: | 2019-08-23 |
公开(公告)号: | CN110490267B | 公开(公告)日: | 2022-03-01 |
发明(设计)人: | 肖欣庭;池明辉;梁欢;赵冬;罗姗姗 | 申请(专利权)人: | 四川长虹电器股份有限公司 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/764;G06V10/762;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 四川省成都市天策商标专利事务所(有限合伙) 51213 | 代理人: | 郭会 |
地址: | 621000 四*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 票据 分拣 方法 | ||
本发明公开了一种基于深度学习的票据分拣方法,包括以下步骤:S1.收集业务数据,进行归档标注:利用ImageNet预训练的VGG16网络加上无监督聚类算法K‑Means对收集的业务图片进行粗分类,然后通过人工进行准确归类获得标注好的票据数据;S2.划分数据集:将TotalDatasct划分为训练集TrainDataset和验证集ValidationDataset,基于各具体票据类型样本数目的多少选择性地划分训练和验证数据集,在训练数据和验证数据划分层面考虑了样本不均衡的情况;S3.训练STNEfficientNet:利用TrainDataset训练和利用ValidationDataset验证网络结构STNEfficientNet;S4.部署训练完成的模型,利用训练好的网络STNEfficientNet,对客户上传的新的票据进行自动分拣。本发明训练速度快,精度高,能有效提升人工分类票据的效率。
技术领域
本发明涉及模式识别图像处理技术领域,尤其涉及一种基于深度学习的票据分拣方法。
背景技术
发票的分类(分拣)在财务记账等流程中,具有很重要的地位。发票只有进行正确的分类,才能不影响后续的记账流程的处理。传统的发票分类做法通常是由人工来进行发票的分类及归档处理,效率低下且易出错。
发明内容
针对上述问题,本发明提出了一种基于深度学习的票据分拣方法,基于STN网络和EfficientNet网络,将通用的图片分类技术EfficientNet[2]应用至发票分类领域,并利用Spatial Transformer Networks[1](STN)网络加以改进,以提升扭曲、倾斜等质量差票据分类精度,本发明在票据分类领域,训练速度快,精度高,能有效提升人工分类票据的效率。
为更好地理解相关问题,现对下列专有名词作出解释。
VGG:一种典型的卷积神经网络,详情见参考文献[3];
票据分拣的总类别:指一共有多少类型的票据需要进行分拣,此类型总数取决于具体的业务需求。例如,若业务只需要区分身份证和火车票,则该票据分拣任务中,票据分拣的总类别数为2;若业务需要区分身份证、火车票、定额发票,则该票据分拣任务中,票据分拣的总类别数为3;
K-Means聚类:一种简单常用的聚类算法[4];
记本发明的网络结构为STNEfficientNet,即将STN嵌入EfficientNet网络头部形成的网络结构。
参考文献:
[1]https://arxiv.org/pdf/1506.02025.pdf;
[2]https://arxiv.org/pdf/1905.11946.pdf;
[3]https://arxiv.org/pdf/1409.1556.pdf;
[4]https://en.wikipedia.org/wiki/K-means_clustering;
票据的自动分拣问题,本质上是一个票据图片的分类问题,因此可以考虑采用被证明具有推理速度快、精度高、模型小的EfficientNet分类网络来解决这一问题。EfficientNet网络作为一种最新提出的图片分类算法,实验证明其具有推理速度快、模型小、精度高的特点。实际业务的票据通常存在各种程度的变形、扭曲、倾斜等干扰,因此常规的分类模型在实际业务票据分拣中并未能取得较好的结果。STN网络被证明具有旋转自动校正、透视拉伸自动恢复的功能,STN和EfficientNet能有效提升票据在票据受到变形、扭曲、倾斜等干扰下的分拣准确率;本发明采用级联STN模块和EfficientNet网络的方法,解决票据的自动分拣问题。
本发明通过以下技术方案来实现上述目的:
一种基于深度学习的票据分拣方法,包括以下步骤:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川长虹电器股份有限公司,未经四川长虹电器股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910787567.0/2.html,转载请声明来源钻瓜专利网。