[发明专利]图片识别方法、介质、装置和计算设备在审
申请号: | 202111182606.8 | 申请日: | 2021-10-11 |
公开(公告)号: | CN113902922A | 公开(公告)日: | 2022-01-07 |
发明(设计)人: | 刘稳军;胡宜峰;李唐薇;李雨珂;杨卫强;朱浩齐 | 申请(专利权)人: | 杭州网易智企科技有限公司 |
主分类号: | G06V10/40 | 分类号: | G06V10/40;G06V10/774;G06V10/764;G06N3/04;G06N3/08 |
代理公司: | 北京博思佳知识产权代理有限公司 11415 | 代理人: | 申亚辉 |
地址: | 310052 浙江省杭州市*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 图片 识别 方法 介质 装置 计算 设备 | ||
1.一种图片识别方法,应用于识别模型,所述方法包括:
基于卷积神经网络从待识别图片的图片表示矩阵中提取至少一个第一类特征图矩阵,并根据各个第一类特征图矩阵确定第一特征向量;
将所述第一特征向量映射成第一概率表征值,用于表征首次识别出的所述待识别图片属于预设类型的概率;
若所述第一概率表征值大于第一预设阈值,则将所述第一特征向量映射成区域位置坐标,该区域位置坐标用于确定相应的预测区域,所述预测区域对应于所述第一类特征图矩阵中所可能包含的预设类型元素;
从每个第一类特征图矩阵中裁剪出相应的预测区域,作为第二类特征图矩阵,并根据各个第二类特征图矩阵确定第二特征向量;
将所述第二特征向量映射成第二概率表征值并输出,用于表征再次识别出的所述待识别图片属于预设类型的概率。
2.如权利要求1所述方法,根据各个第一类特征图矩阵确定第一特征向量,包括:
对各个第一类特征图矩阵分别进行池化操作,将各个池化操作结果值组成第一特征向量。
3.如权利要求1所述方法,根据各个第二类特征图矩阵确定第二特征向量,包括:
对各个第二类特征图矩阵分别进行池化操作,将各个池化操作结果值组成第二特征向量。
4.一种训练识别模型的方法,包括:
获取图片样本与所述图片样本对应的识别标签,所述识别标签用于确定所述图片样本是否属于预设类型;并且执行以下步骤训练识别模型:
基于卷积神经网络从所述图片样本的图片表示矩阵中提取至少一个第一类特征图矩阵,并根据各个第一类特征图矩阵确定第一特征向量与定位标签;所述定位标签用于确定相应的实际区域,所述实际区域对应于所述第一类特征图矩阵中所可能包含的预设类型元素;
将所述第一特征向量映射成第一概率表征值,用于表征首次识别出的所述待识别图片属于预设类型的概率;
若所述第一概率表征值大于第一预设阈值,则将所述第一特征向量映射成区域位置坐标,该区域位置坐标用于确定相应的预测区域,所述预测区域对应于所述第一类特征图矩阵中所可能包含的预设类型元素;
从每个第一类特征图矩阵中裁剪出相应的预测区域,作为第二类特征图矩阵,并根据各个第二类特征图矩阵确定第二特征向量;
将所述第二特征向量映射成第二概率表征值并输出,用于表征再次识别出的所述待识别图片属于预设类型的概率;
针对所述识别模型的训练目标,调整所述识别模型对应的参数集。
5.如权利要求4所述方法,其中,若所述图片样本属于预设类型,则所述训练目标为:减小所述识别标签对应的概率表征值与所述第一概率表征值的差异,并且减小所述识别标签对应的概率表征值与所述第二概率表征值的差异,并且减小所述定位标签对应的坐标与所述区域位置坐标的差异。
6.如权利要求4或5所述方法,若所述图片样本不属于预设类型,则所述训练目标为:减小所述识别标签对应的概率表征值与所述第一概率表征值的差异。
7.一种图片识别装置,应用于识别模型,所述装置包括:
第一特征向量确定模块,基于卷积神经网络从待识别图片的图片表示矩阵中提取至少一个第一类特征图矩阵,并根据各个第一类特征图矩阵确定第一特征向量;
第一分类模块,将所述第一特征向量映射成第一概率表征值,用于表征首次识别出的所述待识别图片属于预设类型的概率;
定位模块,若所述第一概率表征值大于第一预设阈值,则将所述第一特征向量映射成区域位置坐标,该区域位置坐标用于确定相应的预测区域,所述预测区域对应于所述第一类特征图矩阵中所可能包含的预设类型元素;
第二特征向量确定模块,从每个第一类特征图矩阵中裁剪出相应的预测区域,作为第二类特征图矩阵,并根据各个第二类特征图矩阵确定第二特征向量;
第二分类模块,将所述第二特征向量映射成第二概率表征值并输出,用于表征再次识别出的所述待识别图片属于预设类型的概率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州网易智企科技有限公司,未经杭州网易智企科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111182606.8/1.html,转载请声明来源钻瓜专利网。