[发明专利]精确定位图像中字符的方法、装置及系统有效
申请号: | 201710258835.0 | 申请日: | 2017-04-19 |
公开(公告)号: | CN107203766B | 公开(公告)日: | 2019-08-20 |
发明(设计)人: | 朱钱虎 | 申请(专利权)人: | 杭州泽火科技有限公司 |
主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/46 |
代理公司: | 北京酷爱智慧知识产权代理有限公司 11514 | 代理人: | 安娜 |
地址: | 310053 浙江省杭州*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 分布概率 字符区域 仿射变换矩阵 装置及系统 定位图像 直方图统计 图像 迭代更新 定位结果 定位效果 矩阵迭代 区域定位 终止条件 字符位置 初始化 低成本 光流法 模组端 直方图 更新 像素 重复 应用 | ||
本发明具体涉及一种精确定位图像中字符的方法、装置及系统。本发明提供的方法包括:步骤S1,初始化仿射变换矩阵和字符区域分布概率;步骤S2,根据所述字符区域分布概率对图像的像素值进行直方图统计;步骤S3,根据直方图统计结果和所述字符区域分布概率迭代更新仿射变换矩阵;步骤S4,根据更新后的仿射变换矩阵更新字符区域分布概率;步骤S5,重复步骤S2‑步骤S4,直到满足第一终止条件;步骤S6,根据最终确定的字符区域分布概率得到所述图像中的字符位置。本发明提供的精确定位图像中字符的方法、装置及系统,仅采用直方图和类似于光流法的区域定位矩阵迭代即可达到精确定位结果,处理速度快,定位效果好,可直接应用于低成本的模组端识别。
技术领域
本发明涉及光学字符识别技术领域,具体涉及精确定位图像中字符的方法、装置及系统。
背景技术
低成本嵌入式模块下的字符识别需要预先针对多个字符(例如5个数字)进行精确定位,否则无法解决识别的实际成本。现有技术需要将图像传送至上位机再进行字符的精确定位,无法满足多种业务环境下模组端精确定位的需求。
现有的字符自动定位算法主要有以下三种:
(1)基于特征点匹配:计算字符边界区域的一些固定特征进行特征点匹配,根据匹配计算出仿射矩阵(Affine Transform Matrix),实现全图的仿射变换,最终将字符区域映射到固定区域。该方法需要具备明确的特征点,在光学字符识别过程中该条件不容易满足。且计算的仿射矩阵精度受限,字符定位精度不高。另外对于低成本的摄像头模组,无法满足该算法所需的内存需求。
(2)利用预先的字符识别:根据字符识别的置信度,计算字符区域的联合概率。该方法可运行于模组端,但由于需要计算每个像素上的字符置信度,其计算时间较高。
(3)基于图像二值化算法:根据二值化后的字符区域,计算定位区域的概率。第三种方法由于二值化的不确定性、粘连、断裂等不确定因素,整体结果不如第一种方法和第二种方法好。
综上所述,现有的字符自动定位算法具有如下缺陷:算法复杂、处理效率低、定位精度低;对识别的环境要求高,无法满足多种业务环境下模组端精确定位的需求。
发明内容
针对现有技术中的缺陷,本发明提供的精确定位图像中字符的方法、装置及系统,仅采用直方图和类似于光流法的区域定位矩阵迭代即可达到精确定位结果,处理速度快,定位效果好,可直接应用于低成本的模组端识别。
第一方面,本发明提供的一种精确定位图像中字符的方法,包括:
步骤S1,初始化仿射变换矩阵和字符区域分布概率;
步骤S2,根据所述字符区域分布概率对图像的像素值进行直方图统计;
步骤S3,根据直方图统计结果和所述字符区域分布概率迭代更新仿射变换矩阵;
步骤S4,根据更新后的仿射变换矩阵更新字符区域分布概率;
步骤S5,重复步骤S2-步骤S4,直到满足第一终止条件;
步骤S6,根据最终确定的字符区域分布概率得到所述图像中的字符位置。
本实施例提供的精确定位图像中字符的方法,融合了像素分布及字符间距的联合概率分布,仅采用直方图和类似于光流法的区域定位矩阵迭代即可达到精确定位结果,定位过程中不使用二值化、特征点匹配等算法,对光照变化不敏感,极大的降低了内存需求及计算损耗,实现了一种概率水平集的演化算法用于多个字符的整体定位。在不利用字符周界环境的情况下,在受限内存及计算资源的条件下,有效同时定位多个字符的精确边界,供后续识别使用,处理速度快,定位效果好,可直接应用于低成本的模组端识别。
本实施例提供的精确定位图像中字符的方法可运行于低功耗,低内存的模组端,对识别固定类型的表具,如电表、水表等,具有较高的实用性。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州泽火科技有限公司,未经杭州泽火科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710258835.0/2.html,转载请声明来源钻瓜专利网。