[发明专利]基于自适应跟踪框分割的直播服饰装扮方法及装置有效
申请号: | 201711422373.8 | 申请日: | 2017-12-25 |
公开(公告)号: | CN108040296B | 公开(公告)日: | 2020-08-28 |
发明(设计)人: | 赵鑫;邱学侃;颜水成 | 申请(专利权)人: | 北京奇虎科技有限公司 |
主分类号: | H04N21/478 | 分类号: | H04N21/478;H04N21/2187;G06T7/246;G06T7/194;G06T7/11;G06T3/60;G06T3/00 |
代理公司: | 深圳市世纪恒程知识产权代理事务所 44287 | 代理人: | 胡海国 |
地址: | 100088 北京市西城区新*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 自适应 跟踪 分割 直播 服饰 装扮 方法 装置 | ||
1.一种基于自适应跟踪框分割的直播服饰装扮方法,所述方法用于对视频中每隔n帧划分得到的各组帧图像进行处理,针对其中一组帧图像,所述方法包括:
获取所述一组帧图像中包含有特定对象的第t帧图像以及与第t-1帧图像对应的跟踪框,其中t大于1;与第1帧图像对应的跟踪框是根据与第1帧图像对应的分割结果所确定的;
依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理,得到与第t帧图像对应的跟踪框;根据与第t帧图像对应的跟踪框,对所述第t帧图像的部分区域进行场景分割处理,得到与第t帧图像对应的分割结果;
根据与第t帧图像对应的分割结果,确定第t帧图像的第二前景图像,并依据所述第二前景图像,确定所述第二前景图像中的肢体区域;
根据用户选择的服饰装扮,对所述肢体区域添加装扮效果,得到处理后的第t帧图像;
将所述处理后的第t帧图像覆盖所述第t帧图像得到处理后的视频数据;
显示处理后的视频数据。
2.根据权利要求1所述的方法,其中,所述根据用户选择的服饰装扮,对所述肢体区域添加装扮效果,得到处理后的第t帧图像进一步包括:
根据用户选择的服饰装扮,确定与所述服饰装扮对应的基础服饰装扮效果贴图;
从所述肢体区域中提取出所述肢体区域的关键信息;
根据所述肢体区域的关键信息,对所述基础服饰装扮效果贴图进行处理,得到服饰装扮效果贴图;
根据所述肢体区域的关键信息,将所述服饰装扮效果贴图与所述第二前景图像进行融合处理,得到处理后的第t帧图像。
3.根据权利要求2所述的方法,其中,所述关键信息为关键点信息;
所述根据所述肢体区域的关键信息,对所述基础服饰装扮效果贴图进行处理进一步包括:
根据所述关键点信息,计算具有对称关系的至少两个关键点之间的位置信息;
依据所述位置信息中的距离信息,对所述基础服饰装扮效果贴图进行缩放处理;和/或,依据所述位置信息中的旋转角度信息,对所述基础服饰装扮效果贴图进行旋转处理。
4.根据权利要求2所述的方法,其中,所述根据所述肢体区域的关键信息,将所述服饰装扮效果贴图与所述第二前景图像进行融合处理,得到处理后的第t帧图像进一步包括:
根据所述肢体区域的关键信息,确定与所述服饰装扮效果贴图对应的融合位置信息;
按照所述融合位置信息,将所述服饰装扮效果贴图与所述第二前景图像进行融合处理,得到处理后的第t帧图像。
5.根据权利要求1所述的方法,其中,所述方法还包括:
从所述视频中选取包含特定对象的帧图像,将所述帧图像确定为待识别帧图像;
对所述待识别帧图像进行分析,确定待推荐服饰装扮;
向用户推荐所述待推荐服饰装扮。
6.根据权利要求5所述的方法,其中,所述对所述待识别帧图像进行分析,确定待推荐服饰装扮进一步包括:
对所述待识别帧图像进行场景分割处理,得到针对所述特定对象的待识别区域图像;
对所述待识别区域图像进行识别,得到所述特定对象的特征信息;
利用预设匹配规则将所述特征信息与直播服饰装扮进行匹配,确定待推荐服饰装扮。
7.根据权利要求1所述的方法,其中,所述依据第t帧图像,对与第t-1帧图像对应的跟踪框进行调整处理进一步包括:
对第t帧图像进行识别处理,确定第t帧图像中针对特定对象的第一前景图像;
将与第t-1帧图像对应的跟踪框应用于第t帧图像;
根据第t帧图像中的第一前景图像,对与第t-1帧图像对应的跟踪框进行调整处理。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京奇虎科技有限公司,未经北京奇虎科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711422373.8/1.html,转载请声明来源钻瓜专利网。