[发明专利]一种基于半监督学习的提高行人重识别聚类精度的方法在审
申请号: | 202211526656.8 | 申请日: | 2022-11-30 |
公开(公告)号: | CN115965992A | 公开(公告)日: | 2023-04-14 |
发明(设计)人: | 刘峥琦;杜博;林雨恬 | 申请(专利权)人: | 武汉大学 |
主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V20/52;G06V20/40;G06V10/762;G06V10/774;G06V10/82 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 严彦 |
地址: | 430072 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 监督 学习 提高 行人 识别 精度 方法 | ||
1.一种基于半监督学习的提高行人重识别聚类精度的方法,其特征在于,包括以下步骤:
步骤1,获取行人重识别数据集,将其分为训练集和测试集,并对训练集中少量数据进行人工标注,得到有标签的训练数据集;
步骤2,利用DBSCAN聚类算法对步骤1中所有训练集数据进行聚类,并获得样本数据的伪标签;
步骤3,将有标签数据聚类后的伪标签与人工标注的标签进行比较,对聚类错误的全部样本数据进行重新聚类,得到新的伪标签;
步骤4,若存在多个原聚类中的有标签数据都来自同一个行人,则将这多个原聚类进行合并,得到一个大聚类;
步骤5,若某个原聚类中有标签数据来自于不同行人,则将这个原聚类分裂为多个更小的纯聚类;
步骤6,将聚类的质心作为正样本,离散值作为负样本,利用对比学习损失函数进行反向传播,迭代更新神经网络模型参数;
步骤7,重复执行步骤2-步骤6,当聚类个数和准确率前后两次迭代差值小于μ时,认为网络模型收敛,输出用于行人重识别的神经网络模型;
步骤8,利用测试集数据测试网络模型聚类、分类效果。
2.如权利要求1所述的一种基于半监督学习的提高行人重识别聚类精度的方法,其特征在于:步骤1中利用现有的自动行人检测工具对多个摄像头拍摄的监控视频进行检测,获得不同行人在多个摄像头下的大量图像,并将其分为训练集和测试集,对训练集中短时间段内的少量图像进行标注,标注不同行人的ID,得到少量有标签训练数据集。
3.如权利要求1所述的一种基于半监督学习的提高行人重识别聚类精度的方法,其特征在于:步骤2利用DBSCAN聚类算法完成初始聚类后得到数据集xi为单个样本,为样本对应的伪标签,对能够聚在一起的样本xi,将其对应的伪标签赋值0~Num-1的数字,Num为聚类的个数,对于不能聚类的距离较远的样本,将其认定为离散值,对应的伪标签赋为-1。
4.如权利要求3所述的一种基于半监督学习的提高行人重识别聚类精度的方法,其特征在于:步骤3中聚类后得到的数据集中包括有标签样本其对应的正确的人工标注标签为{y1,y2,...yK},通过将有标签数据聚类后的伪标签与人工标注的标签进行比较,发现存在不同标签ID的图片聚成了一个类、同一标签ID的图片被聚在了不同类这两种错误,将这些错误的聚类内的全部样本数据进行重新聚类操作。
5.如权利要求4所述的一种基于半监督学习的提高行人重识别聚类精度的方法,其特征在于:步骤4中当同一行人的标注图像被分散到多个聚类中,且这些聚类中不包含其他行人的有标签样本时,将这些原聚类合并为一个大聚类,计算方式如下:
式中,Clusternew表示合并后的新的聚类,表示进行合并操作的第i个聚类中的有标签样本,xj表示进行合并操作的第i个聚类中的无标签样本,N′i为进行合并操作的第i个聚类中的有标签样本数量,Ni为进行合并操作的第i个聚类中的无标签样本数量,NK为需要合并的原聚类的个数。
6.如权利要求5所述的一种基于半监督学习的提高行人重识别聚类精度的方法,其特征在于:步骤5中若原聚类中的有标签图像来自不同的行人,则首先利用这些有标签图像计算分裂后的小聚类的质心,然后计算原聚类中的每个无标签样本与各质心之间的距离,并将无标签样本归到其距离最近的质心所属的小聚类下。
7.如权利要求6所述的一种基于半监督学习的提高行人重识别聚类精度的方法,其特征在于:步骤5中分类后的小聚类的质心为全部有标注样本的平均值,计算方式如下:
式中,ES表示第s个小聚类的质心,N为小聚类质心的个数,为有标签样本,为样本的特征值,K为第s个小聚类中有标签样本的个数,为有标签样本的真实标签,ys为第s个小聚类中有标签样本的真实标签。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211526656.8/1.html,转载请声明来源钻瓜专利网。