[发明专利]一种基于两阶段的服装关键点定位方法和系统在审
申请号: | 201910411194.7 | 申请日: | 2019-05-16 |
公开(公告)号: | CN110222685A | 公开(公告)日: | 2019-09-10 |
发明(设计)人: | 姜军;曾雄梅;解猛;周作禹;胡忠冰;胡若澜 | 申请(专利权)人: | 华中科技大学 |
主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/62;G06K9/46 |
代理公司: | 华中科技大学专利中心 42201 | 代理人: | 李智;曹葆青 |
地址: | 430074 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 关键点 服装 服装区域 神经网络 粗定位 两阶段 图像处理技术 定位信息 服装图像 结构类型 姿势变化 单阶段 可视化 形变 预测 卷积 遮挡 回归 网络 | ||
1.一种基于两阶段的服装关键点定位方法,其特征在于,包括如下步骤:
(1)采用基于多任务的深度神经网络对服装图像中的服装关键点进行定位,得到服装关键点的粗定位信息;
(2)根据服装关键点的粗定位信息,提取感兴趣服装区域;
(3)采用深度全卷积网络对感兴趣服装区域中的服装关键点进行定位,得到服装关键点的最终定位信息;
所述基于多任务的深度神经网络通过同时训练服装关键点的坐标回归任务、服装关键点的结构类型预测任务和服装关键点可视化类型预测任务后得到。
2.如权利要求1所述的一种基于两阶段的服装关键点定位方法,其特征在于,所述基于多任务的深度神经网络的训练包括:
对样本服装图像集合中的每个样本服装图像,标注服装关键点的坐标、服装关键点的结构类型和服装关键点可视化类型,得到标注后的样本服装图像集合;
所述服装关键点的结构类型通过对服装关键点向量进行聚类后的聚类中心向量表示,将标注后的样本服装图像集合作为基于多任务的深度神经网络的输入,将服装关键点的预测坐标、服装关键点可视化类型的预测概率和服装关键点的预测坐标与聚类中心向量之间的距离作为基于多任务的深度神经网络的输出,以损失函数最小为目标同时训练服装关键点的坐标回归任务、服装关键点的结构类型预测任务和服装关键点可视化类型预测任务,得到训练好的基于多任务的深度神经网络。
3.如权利要求2所述的一种基于两阶段的服装关键点定位方法,其特征在于,所述服装关键点的结构类型包括服装款式、摆放方式和感兴趣服装区域的尺寸。
4.如权利要求2所述的一种基于两阶段的服装关键点定位方法,其特征在于,所述服装关键点可视化类型包括可见、遮挡和不存在。
5.如权利要求2所述的一种基于两阶段的服装关键点定位方法,其特征在于,所述损失函数包括第一损失函数、第二损失函数和第三损失函数,
所述第一损失函数为服装关键点的坐标与服装关键点的预测坐标之间的欧式距离;
所述第二损失函数为用于预测服装关键点可视化类型的softmax损失函数;
所述第三损失函数为服装关键点的预测坐标组成的向量与聚类中心向量之间的欧式距离。
6.如权利要求1-5任一所述的一种基于两阶段的服装关键点定位方法,其特征在于,所述深度全卷积网络的训练包括:
对样本服装图像集合中的每个样本服装图像,提取样本感兴趣服装区域图像、在样本感兴趣服装区域图像上标注服装关键点的坐标;
将标注后的样本感兴趣服装区域图像作为深度全卷积网络的输入,将深度全卷积网络输出的响应图上的最大值对应的坐标作为样本感兴趣服装区域图像上的服装关键点的预测坐标,以第四损失函数最小为目标训练深度全卷积网络得到训练好的深度全卷积网络;
所述第四损失函数为样本感兴趣服装区域图像上的服装关键点的预测坐标与标注的服装关键点的坐标之间的欧式距离。
7.如权利要求1-5任一所述的一种基于两阶段的服装关键点定位方法,其特征在于,所述服装关键点的粗定位信息包括:服装关键点的粗定位坐标和服装关键点的结构类型。
8.如权利要求7所述的一种基于两阶段的服装关键点定位方法,其特征在于,所述步骤(2)包括:
利用服装关键点的粗定位坐标结合服装关键点的结构类型,自适应生成包含服装关键点在内的矩形框,将矩形框作为感兴趣服装区域。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中科技大学,未经华中科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910411194.7/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种盲人“读书”系统
- 下一篇:物体检测方法、装置、计算机设备和存储介质