[发明专利]视频处理方法、装置、计算机设备和存储介质在审
申请号: | 202110928921.4 | 申请日: | 2021-08-13 |
公开(公告)号: | CN115705706A | 公开(公告)日: | 2023-02-17 |
发明(设计)人: | 马锦华;高远;陈培鹏 | 申请(专利权)人: | 腾讯科技(深圳)有限公司;中山大学 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V10/62;G06V10/764;G06V10/82;G06N3/0464;G06N3/096 |
代理公司: | 华进联合专利商标代理有限公司 44224 | 代理人: | 黄晶晶 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视频 处理 方法 装置 计算机 设备 存储 介质 | ||
1.一种视频处理方法,其特征在于,所述方法包括:
通过待训练的识别模型,分别提取源域和目标域下的视频样本的深度特征;所述源域下的视频样本携带样本标签;
通过域适应训练器对所述深度特征进行多时间尺度特征提取,分别得到源域和目标域下的多时间尺度的视频特征;
按照所述视频特征对应的时间节点和时间尺度权重,将源域和目标域下的视频特征分组对齐;所述时间尺度权重与相应视频特征所表达的信息量正相关;
根据同组内的源域和目标域下的视频特征之间的差异,确定对抗损失;
基于源域下的视频样本的预测类别与相应样本标签之间的差异,确定类别损失;所述预测类别,是基于所述源域下的视频样本的视频特征进行分类得到;
根据所述对抗损失和所述类别损失,调整所述识别模型的模型参数并继续进行对抗训练,直至满足训练停止条件时结束训练。
2.根据权利要求1所述的方法,其特征在于,所述通过域适应训练器对所述深度特征进行多时间尺度特征提取,分别得到源域和目标域下的多时间尺度的视频特征,包括:
通过域适应训练器分别对所述深度特征进行多时间尺度卷积处理,得到所述深度特征对应的卷积结果;
根据所述深度特征所对应的时间节点权重和相应的卷积结果,分别得到所述源域和所述目标域下的多时间尺度的视频特征。
3.根据权利要求2所述的方法,其特征在于,所述域适应训练器是通过卷积层进行多时间尺度卷积处理;所述域适应训练器还包括时间节点注意力层;
所述方法还包括:
通过所述时间节点注意力层,根据各时间节点下的深度特征所表达的信息量,分别对所述深度特征所对应的时间节点分配对应的时间节点权重;所述时间节点权重与相应时间节点下的深度特征所表达的信息量正相关。
4.根据权利要求1所述的方法,其特征在于,在所述按照所述视频特征对应的时间节点和时间尺度权重,将源域和目标域下的视频特征分组对齐之前,所述方法还包括:
通过所述域适应训练器的时间尺度注意力层,确定源域和目标域下各时间尺度的视频特征对应的信息熵;所述信息熵表征相应视频特征所表达的信息量;
根据所述信息熵,分别对各时间尺度的视频特征分配相应的时间尺度权重。
5.根据权利要求1所述的方法,其特征在于,所述按照所述视频特征对应的时间节点和时间尺度权重,将源域和目标域下的视频特征分组对齐,包括:
通过所述域适应训练器,根据各所述视频特征对应的时间节点和时间尺度权重,确定源域和目标域下待对齐的视频特征;
将待对齐的视频特征划分为一组,得到多组对齐后的视频特征;每一组内的视频特征包括相同时间尺度的源域和目标域下的视频特征。
6.根据权利要求5所述的方法,其特征在于,所述通过所述域适应训练器,根据各所述视频特征对应的时间节点和时间尺度权重,确定源域和目标域下待对齐的视频特征,包括:
确定源域和目标域下的视频特征在相应时间节点下的时间节点权重;
从源域和目标域下的视频特征中,确定不同域下时间节点权重和时间尺度权重相匹配的视频特征,作为源域和目标域下待对齐的视频特征。
7.根据权利要求1所述的方法,其特征在于,所述通过待训练的识别模型,分别提取源域和目标域下的视频样本的深度特征,包括:
通过待训练的识别模型中的初始特征提取器,分别提取源域和目标域下的视频样本的初始特征;
通过所述识别模型中的目标特征提取器,分别对源域和目标域下的视频样本的初始特征进行特提取,得到源域和目标域下的视频样本的深度特征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司;中山大学,未经腾讯科技(深圳)有限公司;中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110928921.4/1.html,转载请声明来源钻瓜专利网。