[发明专利]一种基于多帧音视频融合网络的人物识别方法及系统有效
申请号: | 201910388158.3 | 申请日: | 2019-05-10 |
公开(公告)号: | CN110222719B | 公开(公告)日: | 2021-09-24 |
发明(设计)人: | 高科;王永杰 | 申请(专利权)人: | 中国科学院计算技术研究所 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/00;G10L17/02 |
代理公司: | 北京律诚同业知识产权代理有限公司 11006 | 代理人: | 祁建国;梁挥 |
地址: | 100080 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提出一种基于多帧音视频融合网络的人物识别方法及系统,其特征在于,包括:视觉特征融合步骤,解码待人物识别的视频,得到该视频的连续K帧,提取该连续K帧中每一帧的人脸特征,对所有该人脸特征进行加权融合得到多帧视觉特征,K为正整数;声纹特征融合步骤,提取该连续K帧中每一帧的声纹特征,使用时间递归神经网络融合所有该声纹特征,得到多帧声纹特征;音视频特征融合步骤,使用全连接层对该多帧视觉特征和该多帧声纹特征进行融合,并用分类损失约束融合过程,得到多帧音视频融合特征,根据该多帧音视频融合特征进行人物识别。 | ||
搜索关键词: | 一种 基于 多帧音 视频 融合 网络 人物 识别 方法 系统 | ||
【主权项】:
1.一种基于多帧音视频融合网络的人物识别方法,其特征在于,包括:视觉特征融合步骤,解码待人物识别的视频,得到该视频的连续K帧,提取该连续K帧中每一帧的人脸特征,对所有该人脸特征进行加权融合得到多帧视觉特征,K为正整数;声纹特征融合步骤,提取该连续K帧中每一帧的声纹特征,使用时间递归神经网络融合所有该声纹特征,得到多帧声纹特征;音视频特征融合步骤,使用全连接层对该多帧视觉特征和该多帧声纹特征进行融合,并用分类损失约束融合过程,得到多帧音视频融合特征,根据该多帧音视频融合特征进行人物识别。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院计算技术研究所,未经中国科学院计算技术研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910388158.3/,转载请声明来源钻瓜专利网。
- 上一篇:图像处理的方法及装置
- 下一篇:一种具有短视频获取功能的烹饪设备