[发明专利]用于生成预训练模型的方法、模型训练方法及装置有效
申请号: | 202210473240.8 | 申请日: | 2022-04-29 |
公开(公告)号: | CN114882334B | 公开(公告)日: | 2023-04-28 |
发明(设计)人: | 吴文灏;方波 | 申请(专利权)人: | 北京百度网讯科技有限公司 |
主分类号: | G06V10/82 | 分类号: | G06V10/82;G06V20/40;G06N3/0464;G06N3/09;G06F16/783 |
代理公司: | 北京英赛嘉华知识产权代理有限责任公司 11204 | 代理人: | 王达佐;马晓亚 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 用于 生成 训练 模型 方法 装置 | ||
1.一种用于生成预训练模型的方法,包括:
获取视频集合;
基于所述视频集合中第一视频的第一视频帧的图像特征,确定第一样本视频帧集合;
基于所述视频集合中除所述第一视频之外的其他第二视频,确定第二样本视频帧集合;
基于所述第一样本视频帧集合和所述第二样本视频帧集合中的视频间差异信息以及视频内差异信息,对待训练模型进行训练包括:基于所述第一样本视频帧集合和所述第二样本视频帧集合之间的所述视频间差异信息以及预设的第一损失函数,确定第一损失信息;
基于所述第一样本视频帧集合中各视频帧之间的所述视频内差异信息、以及预设的第二损失函数,确定第二损失信息,所述第一损失函数与所述第二损失函数均为对比学习场景下的损失函数;
基于所述第一损失信息和所述第二损失信息,对所述待训练模型进行训练;
所述基于所述第一样本视频帧集合和所述第二样本视频帧集合之间的所述视频间差异信息以及预设的第一损失函数,确定第一损失信息包括:将所述第一样本视频帧集合中的第一样本视频帧两两组合得到正样本对,以及所述第二样本视频帧集合中的第二样本视频帧,代入所述第一损失函数,得到所述第一损失信息。
2.根据权利要求1所述的方法,其中,所述基于所述视频集合中第一视频的第一视频帧的图像特征,确定第一样本视频帧集合,包括:
基于所述图像特征,确定相邻的所述第一视频帧之间的图像差异参数;
基于所述图像差异参数,将所述第一视频划分为视频片段;
确定各所述视频片段对应的第二视频帧;
基于所述第二视频帧,确定所述第一样本视频帧集合。
3.根据权利要求2所述的方法,其中,所述图像差异参数包括方向梯度直方图特征值之间的差值的绝对值;以及
所述基于所述图像差异参数,将所述第一视频划分为视频片段,包括:
响应于确定所述第一视频中目标相邻帧之间的所述绝对值大于预设的阈值,基于所述目标相邻帧确定视频分割点;
基于所述视频分割点,将所述第一视频划分为所述视频片段。
4.根据权利要求1所述的方法,还包括:
基于所述第一样本视频帧集合,生成第一正样本信息;
基于所述第二样本视频帧集合,生成第一负样本信息;
基于所述第一正样本信息和所述第一负样本信息,生成所述视频间差异信息。
5.根据权利要求1所述的方法,还包括:
获取所述第一样本视频帧集合中的至少一个第三视频帧的相似视频帧;
基于所述第三视频帧和所述相似视频帧,生成第二正样本信息;
基于所述第一样本视频帧集合中除所述第三视频帧之外的其他第四视频帧,生成第二负样本信息;
基于所述第二正样本信息和所述第二负样本信息,生成所述视频内差异信息。
6.一种训练模型的方法,包括:
获取基于权利要求1至5任一项所述的用于生成预训练模型的方法得到的预训练模型;
对所述预训练模型添加全连接层,得到初始行为识别模型;
基于预设的视频样本以及视频行为标注信息,对所述初始行为识别模型进行训练,得到训练完成的行为识别模型。
7.一种行为识别方法,包括:
获取待识别视频;
基于所述待识别视频和权利要求6所述的训练模型的方法训练得到的行为识别模型,确定与所述待识别视频对应的行为识别结果。
8.一种针对视频检索结果的评估方法,包括:
获取针对目标视频特征的视频检索结果;
基于所述视频检索结果和权利要求1至5任一项所述的用于生成预训练模型的方法得到的预训练模型,确定所述视频检索结果对应的检索视频特征;
基于所述目标视频特征与所述检索视频特征之间的特征相似度,生成针对所述视频检索结果的评估信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京百度网讯科技有限公司,未经北京百度网讯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210473240.8/1.html,转载请声明来源钻瓜专利网。