[发明专利]视频的生成方法及装置在审
申请号: | 201910532909.4 | 申请日: | 2019-06-19 |
公开(公告)号: | CN110287848A | 公开(公告)日: | 2019-09-27 |
发明(设计)人: | 乔伟 | 申请(专利权)人: | 北京卡路里信息技术有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06T3/00 |
代理公司: | 北京康信知识产权代理有限责任公司 11240 | 代理人: | 董文倩 |
地址: | 100007 北京市东城*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标图像 帧图像 视频 录制 图像 合成目标 课程 常规的 预设 逐帧 申请 摄像机 迁移 健身 预测 学习 | ||
本申请公开了一种视频的生成方法及装置。其中,该方法包括:获取原视频的帧图像,其中,帧图像为包括第一人体所做的多种动作的图像;将帧图像按预设顺序输入至深度学习模型进行预测,得到目标图像,目标图像为将多种动作由第一人体迁移至第二人体后的图像;将目标图像逐帧合成目标视频。本申请解决了由于现有的健身课程通常采用常规的摄像机录制的方式生成造成的制课程的过程繁琐,且录制时间过长,录制成本较高的技术问题。
技术领域
本申请涉及视觉深度学习领域,具体而言,涉及一种视频的生成方法及装置。
背景技术
现有的健身课程通常采用常规的摄像机录制的方式生成,录制课程的过程繁琐,且录制时间过长,耗费了大量人力物力。
针对现有的健身课程的录制成本较高的问题,目前尚未提出有效的解决方案。
发明内容
本申请实施例提供了一种视频的生成方法及装置,以至少解决由于现有的健身课程通常采用常规的摄像机录制的方式生成造成的制课程的过程繁琐,且录制时间过长,录制成本较高的技术问题。
根据本申请实施例的一个方面,提供了一种视频的生成方法,包括:获取原视频的帧图像,其中,帧图像为包括第一人体所做的多种动作的图像;将帧图像按预设顺序输入至深度学习模型进行预测,得到目标图像,目标图像为将多种动作由第一人体迁移至第二人体后的图像;将目标图像逐帧合成目标视频。
可选地,上述深度学习模型包括:生成式对抗网络GAN模型。
可选地,在将帧图像按预设顺序输入至深度学习模型进行预测之前,方法还包括:通过以下方法对深度学习模型进行训练:获取样本图像,样本图像为包括第二人体所做的多种动作的图像;检测样本图像,得到与样本图像对应的第一姿态图像;将第一姿态图像和样本图像输入生成式对抗网络GAN模型的生成模型,得到初始目标图像;将初始目标图像和样本图像输入至生成式对抗网络GAN模型的判别模型,得到初始目标图像和样本图像的第一相似度,在第一相似度为预设值时确定深度学习模型训练完成。
可选地,在得到初始目标图像之后,上述方法还包括:确定初始目标图像和样本图像的第二相似度;在第二相似度大于预设阈值时,确定初始目标图像为目标图像。
可选地,检测样本图像,得到与样本图像对应的第一姿态图像,包括以下至少之一:检测样本图像中人体的关节点,得到第一姿态图像;采集样本图像中人体的轮廓,得到第一姿态图像。
可选地,将帧图像按预设顺序输入至深度学习模型进行预测,得到目标图像,包括:检测帧图像,得到与帧图像对应的第二姿态图像;将第二姿态图像输入至深度学习模型进行预测,得到目标图像。
可选地,多种动作包括多个具有关联关系的动作。
根据本申请实施例的另一方面,提供了一种视频的生成装置,包括:获取模块,用于获取原视频的帧图像,其中,帧图像为包括第一人体所做的多种动作的图像;预测模块,用于将帧图像按预设顺序输入至深度学习模型进行预测,得到目标图像,目标图像为将多种动作由第一人体迁移至第二人体后的图像;合成模块,用于将目标图像逐帧合成目标视频。
可选地,上述装置还包括:训练模块,用于通过以下方法对深度学习模型进行训练,深度学习模型包括:生成式对抗网络GAN模型:获取样本图像,样本图像为包括第二人体所做的多种动作的图像;检测样本图像,得到与样本图像对应的第一姿态图像;将第一姿态图像和样本图像输入生成式对抗网络GAN模型的生成模型,得到初始目标图像;将初始目标图像和样本图像输入至生成式对抗网络GAN模型的判别模型,得到初始目标图像和样本图像的第一相似度,在第一相似度为预设值时确定深度学习模型训练完成。
可选地,训练模块,还用于在得到初始目标图像之后,确定初始目标图像和样本图像的第二相似度;在第二相似度大于预设阈值时,确定初始目标图像为目标图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京卡路里信息技术有限公司,未经北京卡路里信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910532909.4/2.html,转载请声明来源钻瓜专利网。