[发明专利]一种任务处理方法、装置、设备及介质在审
申请号: | 202210616069.1 | 申请日: | 2022-05-31 |
公开(公告)号: | CN115019334A | 公开(公告)日: | 2022-09-06 |
发明(设计)人: | 孟彦伟;李丽 | 申请(专利权)人: | 中邮信息科技(北京)有限公司 |
主分类号: | G06V30/424 | 分类号: | G06V30/424;G06V30/146;G06V30/19;G06V30/262;G06Q10/08 |
代理公司: | 北京品源专利代理有限公司 11332 | 代理人: | 严慧 |
地址: | 100037 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 任务 处理 方法 装置 设备 介质 | ||
1.一种任务处理方法,其特征在于,包括:
当接收到待处理任务时,获取与所述待处理任务相对应的待处理面单图像;
基于文本框识别模型对所述待处理面单图像进行处理,得到包括至少一个第一框选区域的第一待使用面单图像;以及,
基于区域识别模型对所述待处理面单图像进行处理,得到包括至少一个第二框选区域的第二待使用面单图像;
获取所述第一待使用面单图像以及所述第二待使用面单图像中框选区域所对应的文字信息;
基于所述文字信息,确定与所述待处理面单图像相对应的目标执行任务。
2.根据权利要求1所述的方法,其特征在于,还包括:
根据至少一个待接入业务方,确定至少一种面单类型;
按照预设比例分别获取与各面单类型相对应的待训练面单图像;
依据第一标注规则,对各待训练面单图像中的至少一个区域进行标注,得到第一训练样本图像;
依据第二标注规则,对各待训练面单图像中的至少一个区域进行标注,得到第二训练样本图像;
依据各待训练面单图像和相应的第一训练样本图像,确定训练得到所述文本框模型的第一训练样本;以及,
依据各待训练面单图像和相应的第二训练样本图像,得到训练得到所述区域识别模型的第二训练样本。
3.根据权利要求2所述的方法,其特征在于,所述依据第一标注规则,对各待训练面单图像中的至少一个区域进行标注,得到第一训练样本图像,包括:
依据第一标注规则中的关键字段、关键字段所对应的标注方式、非关键字段以及所述非关键字段所对应的标注方式,对各待训练面单图像进行框选标注,得到包括至少一个区域的第一训练样本图像;
其中,所述关键字段中包括派送基本信息字段、所述非关键字段包括派送物品类型字段。
4.根据权利要求2所述的方法,其特征在于,所述依据第二标注规则,对各待训练面单图像中的至少一个区域进行标注,得到第二训练样本图像,包括:
依据第二标注规则中的派送地址字段、派送用户字段以及接收用户字段,对各待训练面单图像中的相应区域进行标注,得到第二训练样本图像。
5.根据权利要求2所述的方法,其特征在于,还包括:
训练得到所述文本框识别模型;
所述训练得到所述文本框识别模型,包括:
针对各第一训练样本,将当前第一训练样本中待训练面单图像输入至待训练文本框识别模型中,得到实际输出图像;
确定所述实际输出图像和所述当前第一训练样本中的第一训练样本图像,确定损失值,以基于所述损失值对所述待训练文本框识别模型中的模型参数进行修正;
将所述待训练文本框识别模型中的损失函数收敛作为训练目标,得到所述文本框识别模型,以基于所述文本框识别模型为所述待处理面单图像进行区域框选,得到所述第一待使用面单图像。
6.根据权利要求2所述的方法,其特征在于,还包括:
训练得到所述区域识别模型;
所述训练得到所述区域识别模型,包括:
针对各第二训练样本,将当前第二训练样本中待训练面单图像输入至待训练区域识别模型中,得到实际输出图像;
确定所述实际输出图像和所述当前第二训练样本中的第二训练样本图像,确定损失值,以基于所述损失值对所述待训练区域识别模型中的模型参数进行修正;
将所述待训练区域模型中的损失函数收敛作为训练目标,得到所述区域识别模型,以基于所述区域识别模型为所述待处理面单图像进行区域框选,得到所述第二待使用面单图像。
7.根据权利要求5或6所述的方法,其特征在于,还包括:
基于测试样本集对相应的区域识别模型以及所述文本框识别模型进行准确率测试,以在准确率达到预设准确率阈值时,使用所述区域识别模型以及所述文本框识别模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中邮信息科技(北京)有限公司,未经中邮信息科技(北京)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210616069.1/1.html,转载请声明来源钻瓜专利网。