[发明专利]用于定位一个或多个候选数字图像的方法在审
申请号: | 201811001072.2 | 申请日: | 2018-08-30 |
公开(公告)号: | CN109509228A | 公开(公告)日: | 2019-03-22 |
发明(设计)人: | 尼克拉·丹尼尔松;西蒙·莫林;马库斯·斯堪斯;雅各布·格伦德斯特伦 | 申请(专利权)人: | 安讯士有限公司 |
主分类号: | G06T7/73 | 分类号: | G06T7/73 |
代理公司: | 北京德琦知识产权代理有限公司 11018 | 代理人: | 郭艳芳;王琦 |
地址: | 瑞典*** | 国省代码: | 瑞典;SE |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 特征向量 对象数字图像 候选数字 描绘 生成子 数字图像 图像 登记特征向量 卷积神经网络 可能候选 描绘对象 子网 数据库 关联 分类 | ||
本公开涉及一种用于定位一个或多个候选数字图像的方法。该方法包括:接收(S102)描绘特定对象的对象数字图像(205);使用卷积神经网络(210)的分类子网(220)确定(S106)对象数字图像(205)中描绘的特定对象的类别;基于对象数字图像中描绘的特定对象的所确定的类别,从多个特征向量生成子网(230a、230b、230c)中选择特征向量生成子网;通过所选择的特征向量生成子网确定(S110)对象数字图像(205)中描绘的特定对象的特征向量;通过将所确定的特征向量与数据库(240)中登记的特征向量(242)进行比较,定位(S110)作为用于描绘对象数字图像(205)中描绘的特定对象的可能候选项的一个或多个候选数字图像,其中每个已登记特征向量(242)与数字图像相关联。
技术领域
本发明涉及一种用于定位作为用于描绘特定对象的可能候选项的一个或多个候选数字图像的方法。
背景技术
在若干应用中,需要识别用于描绘如特定数字图像中描绘的特定对象的数字图像。如果在参考图像上描绘的特定对象为具有登记号码牌的汽车,则这可以相对简单地来实现(例如使用OCR技术),而对于人类或猫等实现相同的目标更具挑战性,以往留下这样的操作手动执行。
对此类方法感兴趣的一个具体领域是摄像机监视系统。如果数字图像示出一个人,则该方法可以用于定位示出可能是该人的对象的一个或多个图像。对于摄像机监视系统,这样的方法可以例如适于找出之前是否已经检测到特定对象的存在。例如,如果犯下了罪行并且被指控的罪犯被描绘在数字图像中,则摄像机监视系统的操作员可以在查看存储的视频流时点击示出被指控的罪犯的对象。然后可以提交查询,以便定位一组候选数字图像,该组候选数字图像示出可能描绘被指控的罪犯的内容。另外,与候选数字图像有关的元数据可以被呈现。这样的元数据可以是例如候选数字图像被拍摄的时间、日期和地点。根据这些数据,可能发现被指控的罪犯是否被发现提前调查犯罪区域和/或之前在摄像机监视系统覆盖的另一区域被看到。
实现这种方法的一种方式是利用使用卷积神经网络(CNN)的深度学习算法,来教导计算机算法如何确定对象身份。然而,这种最先进的方法通常是非常计算密集型的,并且因此通常局限于CNN被预训练的特定类别的对象(诸如人、汽车、猫、树等)。通常,令人感兴趣的是能够使用相同的数字图像定位不同的类别内的对象。因此,本领域需要一种改进的方法,该方法提供更快以及更精确的识别,并且具体被配置用于实现多个类别的对象内的识别。
发明内容
提出了一种用于查找作为用于描绘特定对象的可能候选项的一个或多个候选数字图像的方法。该方法包括:接收描绘特定对象的对象数字图像;使用卷积神经网络的分类子网来确定对象数字图像中描绘的特定对象的类别;基于对象数字图像中描绘的特定对象的所确定的类别,从卷积神经网络的多个特征向量生成子网中选择特征向量生成子网;通过所选择的特征向量生成子网来确定对象数字图像中描绘的特定对象的特征向量;通过将对象数字图像中描绘的特定对象的所确定的特征向量与在包括对象的已登记特征向量的数据库中登记的特征向量进行比较,来定位作为用于描绘对象数字图像中描绘的特定对象的可能候选项的一个或多个候选数字图像,其中每个已登记特征向量与数字图像相关联。
该方法可以对例如由监视摄像机捕获的对象的重新识别有用。然而,该方法也可以对诸如例如大型数据库(诸如例如基于互联网的数据库)中的图像识别和分类的其他应用有用。该方法还可以对与互联网上的图像搜索有关的应用(例如用于向特定图像建议相关的或相似的图像)有用。对象数字图像可以是例如人、汽车、狗等的图片。对象数字图像可以包括多于一个对象。因此,该方法可以用于定位多于一个对象的候选数字图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于安讯士有限公司,未经安讯士有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811001072.2/2.html,转载请声明来源钻瓜专利网。