[发明专利]一种面向多区域大规模特征的匹配方法有效
申请号: | 202011104924.8 | 申请日: | 2020-10-15 |
公开(公告)号: | CN112232410B | 公开(公告)日: | 2023-08-29 |
发明(设计)人: | 黄文丽;解伟荣;程金平;高子昂;胡鹏;杨省 | 申请(专利权)人: | 苏州凌图科技有限公司 |
主分类号: | G06V10/75 | 分类号: | G06V10/75;G06V10/762;G06V10/774 |
代理公司: | 北京酷爱智慧知识产权代理有限公司 11514 | 代理人: | 胡林 |
地址: | 215000 江苏省苏州市中国(江苏)自由贸易试验*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 面向 区域 大规模 特征 匹配 方法 | ||
本发明公开了一种面向多区域大规模特征的匹配方法,用以解决当前现有对大规模特征匹配精度低、匹配时间长、匹配效率低问题。该方法根据预先训练好的特征提取模型提取行人经过摄像头的图像特征,其中所述图像特征包括头部特征、面部特征、肢体特征、姿态特征、外观衣服特征。首先,对提取的特征按照出入口和非出入口区域进行分类。其次,采用分区域的类间聚类和类内聚类方法,对提取到的特征进行聚类,得到对应的聚类结果。最后,根据所述聚类结果,对多个区域进行关联连接,以确定所有区域特征都已经过聚类匹配。在经过局部区域类内聚类和类间聚类后能够达到和全局区域特征聚类相同的效果,从而节省了聚类的时间,提高了聚类的效率。
技术领域
本发明属于计算机视觉图像处理技术领域,尤其涉及一种面向多区域大规模特征的匹配方法。
背景技术
近年来,随着计算机视觉技术的不断发展,智慧商场、智慧零售逐步地走入了普通大众的视野,并且被越来越多的商场顾客以及商场运营管理人员所接受。这些新兴的技术不但可以丰富人们的购物形式与出行体验,而且也可以提供更全面、更准确、更详细的运营数据来帮助商场运营管理人员提升整个商场的运营效率。
为了对运营数据有进一步全面的了解,往往需要通过行人重识别技术对不同摄像设备之下的行人特征做匹配操作,从而进一步地对所有的行人特征做详细的聚类分析。聚类分析能够按照既定规则对所有的特征进行分类,把同一个人在所有摄像设备下的特征归关联在一起,从而得到某一个行人在商场中的轨迹信息。在实际的应用中,当聚类的子区域有多个,如A、B、C、D、E分别表示5个店铺,想要知道行人在这5个店铺之间的流动动向,则需要即10次匹配运算。随着店铺数量的增加,匹配运算的次数也随之大规模的增加,要计算100个店铺也就是区域之间的匹配则需要计算4950次运算。这将导致匹配计算时间变长、匹配的效率降低、对计算机的性能也要求更高,严重限制了在工业界生产环境使用。
发明内容
为了克服上述现有技术的不足,本发明的目的在于提供一种面向多区域大规模特征的匹配方法,用以解决现有匹配次数过多、计算时间过长的问题。
本发明采用如下技术方案来实现的:
一种面向多区域大规模特征的匹配方法,包括以下步骤:
步骤1:根据预先训练好的特征提取模型,对经过摄像头的行人进行图像特征提取,提取的特征包括头部特征、面部特征、肢体特征、外观衣着特征;
步骤2:对提取的特征按照摄像头的地理位置分为出入口区域、非出入口区域;
步骤3:对出入口区域进行类内聚类、非出入口多个区域进行类内聚类分别得到类内聚类结果;
步骤4:对出入口区域和非出入口区域进行类间聚类,得到类间聚类结果;
步骤5:根据类内聚类结果和类间聚类结果,对多区域的特征匹配进行关联,从而达到全局区域的聚类结果。
本发明进一步的改进在于,步骤1中,所述特征提取模型通过以下步骤获得:
步骤101:根据预存的标注文件,获取训练数据中相应的目标,将其作为特征提取的样本,其中,所述标注文件包括预设的目标行人特征、以及特征所属的类别;
步骤102:按照预设比例,将检测样本分为训练集和验证集,对检测模型进行训练,获得所述训练好的检测模型;
步骤103:将检测模型应用于目标行人,提取目标行人的特征,其中包括头部特征信息、面部特征信息、肢体特征信息、外观衣着颜色特征信息、姿态特征信息、步伐特征信息、外观肤色特征信息。
本发明进一步的改进在于,步骤2中,所述出入口区域是指商场、零售店、超市等大型场所的进出口,将行人特征按照进入和离开的方向进行分类,获得进入方向的特征集合、离开方向的特征集合。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州凌图科技有限公司,未经苏州凌图科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011104924.8/2.html,转载请声明来源钻瓜专利网。