[发明专利]一种视频情感片段的识别方法及装置有效
申请号: | 202010645824.X | 申请日: | 2020-07-07 |
公开(公告)号: | CN111860237B | 公开(公告)日: | 2022-09-06 |
发明(设计)人: | 陈恩红;徐童;曹卫;张琨;吕广弈;何明;武晗 | 申请(专利权)人: | 中国科学技术大学 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V10/764;G06K9/62;G06F16/35;G06F40/242;G06F40/30;G06N3/04 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 尹秀 |
地址: | 230026 安*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 视频 情感 片段 识别 方法 装置 | ||
本发明公开了一种视频情感片段的识别方法,包括:确定待分析视频中各个情感弹幕的弹幕情感标签;对所述待分析视频进行分割,得到各个待分析视频片段;依据每一个待分析视频片段中的各个弹幕情感标签,计算各个待分析视频片段的片段情感向量和情感熵;依据所述片段情感向量和所述情感熵识别所述各个待分析视频片段中的情感片段。上述的识别方法中,将待分析视频分割成多个待分析视频片段,计算各个待分析视频片段的片段情感向量和情感熵;依据弹幕得到的所述片段的片段情感向量和所述情感熵识别所述各个待分析视频片段中的情感片段,缩短了情感片段的识别周期,避免了由于人工标识情感标签标注时间长,导致情感片段识别周期长的问题。
技术领域
本发明涉及人工智能技术领域,尤其涉及一种视频情感片段的识别方法及装置。
背景技术
随着多媒体技术的发展,多媒体视频的数据量爆发增长,吸引了大量用户,人们倾向于看视频来缓解压力和无聊,看视频已成为满足人们情感需求的一种新方式,而视频巨大的规模和用户有限的时间之间存在矛盾,观众有时只想看视频的部分情感片段,而非整个视频。因此有必要对视频进行与时间同步的情感标签(五类情感:喜、惊、不喜、悲、惧),识别视频中的情感片段,更好地满足观众的个性化情感需求。
该工作的首要挑战是视频缺乏时序情感标签,目前主要通过人工对视频中的每一帧标注情感标签,基于标注的情感标签对情感片段进行识别,由于人工标注情感标签标注时间长,导致情感片段识别周期长。
发明内容
有鉴于此,本发明提供了一种视频情感片段的识别方法及装置,用以解决现有技术中目前主要通过人工对视频中的每一帧标注情感标签,基于标注的情感标签对情感片段进行识别,由于人工标注情感标签标注时间长,导致情感片段识别周期长的问题,具体方案如下:
一种视频情感片段的识别方法,包括:
确定待分析视频中各个情感弹幕的弹幕情感标签;
对所述待分析视频进行分割,得到各个待分析视频片段;
依据每一个待分析视频片段中的各个弹幕情感标签,计算各个待分析视频片段的片段情感向量和情感熵;
依据所述片段情感向量和所述情感熵识别所述各个待分析视频片段中的情感片段。
上述的方法,可选的,确定待分析视频中各个情感弹幕的弹幕情感标签,包括:
获取所述待分析视频的各个弹幕;
对所述各个弹幕进行筛选,得到各个情感弹幕;
依据预设的神经网络模型确定每个情感弹幕的弹幕情感标签。
上述的方法,可选的,依据预设的神经网络模型确定每个情感弹幕的弹幕情感标签,包括:
确定每个情感弹幕的目标语义表示,其中,所述目标语义表示由对应情感弹幕的细粒度语义表示和粗粒度语义表示进行拼接得到;
确定每个情感弹幕产生时刻的场景图像数据的视觉向量表征;
将所述目标语义表示和所述视觉向量表征传递给所述预设的神经网络模型,得到对应情感弹幕的弹幕情感标签。
上述的方法,可选的,对所述待分析视频进行分割,得到各个待分析视频片段,包括:
确定所述待分析视频中各个帧的视觉语义;
依次比较相邻帧的视觉语义,判断所述相邻帧的视觉语义的差异度是否大于预设的差异度阈值;
若是,将所述相邻帧作为切分点进行切分,得到各个待分析视频片段。
上述的方法,可选的,还包括:
获取所述相邻帧弹幕语义;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学技术大学,未经中国科学技术大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010645824.X/2.html,转载请声明来源钻瓜专利网。