[发明专利]一种基于特定人物时空轨迹的视频横屏转竖屏方法有效
申请号: | 202111523572.4 | 申请日: | 2021-12-14 |
公开(公告)号: | CN114155255B | 公开(公告)日: | 2023-07-28 |
发明(设计)人: | 袁琦;温序铭 | 申请(专利权)人: | 成都索贝数码科技股份有限公司 |
主分类号: | G06T7/10 | 分类号: | G06T7/10;G06T7/90;G06V10/774;G06V10/764;H04N21/4402 |
代理公司: | 成都九鼎天元知识产权代理有限公司 51214 | 代理人: | 孙元伟 |
地址: | 610041 四*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 特定 人物 时空 轨迹 视频 横屏转竖屏 方法 | ||
1.一种基于特定人物时空轨迹的视频横屏转竖屏方法,其特征在于,包括步骤:
S1,基于low-level颜色特征差异和high-level语义特征差异进行镜头分割;
S2,基于分割后的镜头,进行跨场景目标人物时空轨迹估计;
步骤S2包括子步骤:
S201,在单一镜头中对目标人物时空轨迹进行估计,设当前镜头sj共有图像K张,使用基于深度学习的目标跟踪器对在当前镜头的每一帧预测目标人物位置,对在当前镜头的每一帧预测目标人物位置,得目标人物在当前镜头的跟踪边框序列其中为当前镜头sj的初始目标人物边框,用于设定跟踪器在当前镜头的跟踪对象;
S202,使用当前镜头的跟踪边框序列利用行人重识别模型提取目标人物空间特征并融合得到目标人物在当前镜头的时空特征;
S203,使用基于深度学习的行人检测器,在下一镜头的首张图像中生成下一镜头跟踪目标人物候选,并使用S202中的行人重识别模型对每个候选提取空间特征,并使用当前镜头的目标人物时空特征进行比对,取相似度最高的候选为下一镜头的跟踪对象;
S204,在下一镜头中,执行步骤S201,S202,S203,以此类推,直到对所有镜头处理完毕,得到目标人物在总计N张RGB图像序列V中的所有跟踪边框,记作
J代表分割好的镜头序列的总数;
S3,基于估计结果,进行目标人物展示区域重构;
步骤S3包括子步骤:
S301,获取每个镜头的目标人物时空轨迹,具体地,对当前镜头sj的跟踪边框序列设第k个边框在其对应图像中的坐标为{x1,y1,x2,y2},则计算得到当前镜头的第k个轨迹点:
则当前镜头中目标人物的轨迹点表示为
S302,根据步骤S301中所得当前镜头目标人物的平滑轨迹,重构以目标人物为展示目的的9:16竖屏画面序列。
2.根据权利要求1所述的基于特定人物时空轨迹的视频横屏转竖屏方法,其特征在于,步骤S1包括子步骤:
S101,设有已解码的总共N张RGB图像序列其中xi表示第i张图像,将每张RGB图像颜色空间转换到HSV颜色空间,记作再计算上一张HSV图像与当前HSV图像的颜色特征差异Dc,即:
Dc=avg(sum(abs(hi-hi-1)))
其中avg表示计算均值,sum表示求和,abs表示取绝对值,hi和hi-1分别表示当前HSV图像和上一张HSV图像;
S102,使用在imagenet上预训练的VGG19分类模型,通过替换原始模型中的末尾的池化层和全连接层为一个全局平均池化层,使得模型输出宽、高均为1的特征图,对RGB图像序列中的每一张图像xi使用该模型进行特征提取,得图像语义特征集合其中fi为第i张RGB图像提取到的图像语义特征,通过计算当前RGB图像与上一张RGB图像的特征差异Ds,即:
其中fi-1表示上一张RGB图像的图像语义特征,‖·‖表示特征的膜;
S103,通过设计以下公式来融合low-level颜色特征差异和high-level语义特征差异,得到最终的图像表征差异Dr,即:
Dr=α*Dc+(1-α)*Ds,
其中α为权重,用于平衡两种差异;
S104,对RGB图像序列中的每相邻两帧xi和xi-1,计算图像表征差异Dr,当Dr≥t时,表明第i张图像是新镜头的第一张图像,则i-1即为当前镜头的出点,以此类推,得到分割好的镜头序列其中sj表示第j个镜头,J为镜头总数,t为判断阈值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于成都索贝数码科技股份有限公司,未经成都索贝数码科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111523572.4/1.html,转载请声明来源钻瓜专利网。
- 上一篇:车载远程代驾系统
- 下一篇:一种用于电力设备风险管控的数据处理方法及装置