[发明专利]一种基于自适应融合网络的视频情感分类方法有效
申请号: | 201910069977.1 | 申请日: | 2019-01-24 |
公开(公告)号: | CN109815903B | 公开(公告)日: | 2020-10-02 |
发明(设计)人: | 王瀚漓;易云 | 申请(专利权)人: | 同济大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 上海科盛知识产权代理有限公司 31225 | 代理人: | 杨宏泰 |
地址: | 200092 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明涉及一种基于自适应融合网络的视频情感分类方法,包括以下步骤:1)构建自适应融合网络模型;2)将输入的视频集人分为训练集和测试集,并获取视频集中每个视频的三个模态特征向量,所述的三个模态为RGB、光流和音频;3)对于训练集,分别将三个模态的特征向量输入自适应融合网络,并采用基于梯度的优化算法进行优化,得到训练好的自适应融合网络模型Model;4)对于测试集,将每个视频的特征向量输入训练好的网络模型Model,并预测视频情感进行分类。与现有技术相比,本发明具有视频情感识别准确率高、描述视频情感准确、数据输入健壮、鲁棒性好等优点。 | ||
搜索关键词: | 一种 基于 自适应 融合 网络 视频 情感 分类 方法 | ||
【主权项】:
1.一种基于自适应融合网络的视频情感分类方法,用以对电影所引发的情感进行分类回归,其特征在于,包括以下步骤:1)构建自适应融合网络模型,包括:依次设置的统计数据层、循环层、全连接层、时间自适应融合层、多模自适应融合层和损失函数层;2)将输入的视频集人分为训练集和测试集,并获取视频集中每个视频的三个模态特征向量,所述的三个模态为RGB、光流和音频;3)对于训练集,分别将三个模态的特征向量输入自适应融合网络,并采用基于梯度的优化算法进行优化,得到训练好的自适应融合网络模型Model;4)对于测试集,将每个视频的特征向量输入训练好的网络模型Model,预测视频情感进行分类。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于同济大学,未经同济大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910069977.1/,转载请声明来源钻瓜专利网。