[发明专利]行人身份识别方法、装置、设备及存储介质在审
申请号: | 201810876429.5 | 申请日: | 2018-08-03 |
公开(公告)号: | CN110795972A | 公开(公告)日: | 2020-02-14 |
发明(设计)人: | 王金 | 申请(专利权)人: | 杭州海康威视数字技术股份有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04 |
代理公司: | 11138 北京三高永信知识产权代理有限责任公司 | 代理人: | 韩东艳 |
地址: | 310051 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 步态特征 足迹特征 足迹 转换模型 步态 转换 检索 视频 计算机技术领域 场景 步态数据库 有效信息量 存储介质 身份识别 足迹图像 数据库 遗留 拍摄 线索 身份 | ||
本发明公开了一种行人身份识别方法、装置、设备及存储介质,属于计算机技术领域,本发明实现了足迹特征与步态特征的交叉识别,可以在行人的步态特征与行人的足迹特征之间相互转换,在行人没有在案发现场遗留足迹的场景中,通过步态足迹转换模型,能够将步态特征转换为足迹特征,从而在没有得到足迹图像的限制下,也能在足迹数据库中进行检索。另外,在没有拍摄到行人的视频的场景中,通过足迹步态转换模型,能够将足迹特征转换为步态特征,从而在没有得到视频的限制下,也能在步态数据库中进行检索,提高了识别行人身份的有效信息量,增加了破案线索。
技术领域
本发明涉及计算机技术领域,特别涉及一种行人身份识别方法、装置、设备及存储介质。
背景技术
随着计算机技术与安防技术的不断发展,可以在案发现场采集行人信息,通过行人信息,识别行人身份,从而确定有哪些人经过了案发现场,进而找到破案线索,帮助破案。
目前可以通过采集的足迹图像,识别行人身份。具体来说,会预先建立足迹数据库,足迹数据库中存储了大量的足迹特征以及对应的行人身份信息。在案发现场,如果行人在案发现场遗留了足迹,会拍摄该足迹,得到行人的足迹图像,通过图像识别算法,从足迹图像中识别出足迹特征,根据该足迹特征在足迹数据库中进行查询,得到足迹特征对应的行人身份信息。
上述方案仅能应用在行人在案发现场遗留足迹的情况,而当行人没有在案发现场遗留足迹时,则无法采集到足迹图像,也就无法根据足迹特征在足迹数据库中进行查询,导致无法识别出行人身份。
发明内容
本发明实施例提供了一种行人身份识别方法、装置、设备及存储介质,能够解决相关技术中一旦没有采集到足迹图像,就无法根据足迹特征识别行人身份的技术问题。所述技术方案如下:
第一方面,提供了一种行人身份识别方法,所述方法包括:
获取目标行人的步态特征;
将所述步态特征输入到步态足迹转换模型,得到所述目标行人的足迹特征,所述步态足迹转换模型用于将行人的步态特征转换为所述行人的足迹特征;
根据所述足迹特征,在足迹数据库中进行查询,得到所述足迹特征对应的行人身份信息。
在一种可能的实现中,所述步态足迹转换模型包括至少一个层,每个层包括至少一个神经元,所述将所述步态特征输入到步态足迹转换模型,输出所述目标行人的足迹特征,包括:
将所述步态特征转换为第一特征向量;
将所述第一特征向量输入到任一个层的任一个神经元,基于所述神经元的权重向量,对所述第一特征向量以及所述神经元的权重向量进行点积处理,得到中间结果;对所述中间结果进行非线性转换,输出所述神经元的第一输出结果;
将所述步态足迹转换模型的输出层的至少一个神经元的第一输出结果,输出为所述目标行人的足迹特征。
在一种可能的实现中,所述步态足迹转换模型中任意两个相邻层中的神经元为全连接关系,所述全连接关系是指所述两个相邻层中上一个层的任一神经元与下一个层的每个神经元均连接;
所述将所述步态特征转换为第一特征向量,包括:获取所述层的上一个层的每个神经元的第二输出结果,将多个第二输出结果作为所述第一特征向量;
所述对所述中间结果进行非线性转换,输出所述神经元的第一输出结果,包括:
将所述第一输出结果,输出至所述层的下一个层的每个神经元。
在一种可能的实现中,所述步态足迹转换模型由多个样本特征对通过模型训练得到,每个样本特征对包括同一样本行人的样本足迹特征以及样本步态特征。
在一种可能的实现中,所述获取行人的步态特征,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州海康威视数字技术股份有限公司,未经杭州海康威视数字技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810876429.5/2.html,转载请声明来源钻瓜专利网。