[发明专利]基于视觉感知模型的在线视频教学编码方法及装置在审
申请号: | 202310130029.0 | 申请日: | 2023-02-08 |
公开(公告)号: | CN116320361A | 公开(公告)日: | 2023-06-23 |
发明(设计)人: | 关振宇;徐涛 | 申请(专利权)人: | 北京航空航天大学 |
主分类号: | H04N13/279 | 分类号: | H04N13/279;H04N13/282;H04N13/161 |
代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 欧阳高凤 |
地址: | 100191*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 视觉 感知 模型 在线视频 教学 编码 方法 装置 | ||
1.一种基于视觉感知模型的在线视频教学编码方法,其特征在于,包括以下步骤:
采集多个用户观看视频时的眼动信息;
基于所述眼动信息生成由多帧视频多个注视点构成的在线视频教学场景的注视点数据库;以及
利用所述注视点数据库训练基于在线视频教学场景的视觉感知模型,并在嵌入编码器后,剔除目标视频中与教学内容无关的冗余信息的同时,为人眼重点关注的目标区域分配到目标码率。
2.根据权利要求1所述的方法,其特征在于,所述利用所述注视点数据库训练基于在线视频教学场景的视觉感知模型,包括:
基于所述视觉感知模型的网络逐帧输出显著性图,其中,每一帧图像的不同区域的权值不同。
3.根据权利要求2所述的方法,其特征在于,所述每一帧图像的不同区域的权值由区域约受关注度决定。
4.根据权利要求1所述的方法,其特征在于,所述目标区域包括讲板中的文字内容、讲师自身和所述讲师的手指向的区域。
5.一种基于视觉感知模型的在线视频教学编码装置,其特征在于,包括:
采集模块,用于采集多个用户观看视频时的眼动信息;
生成模块,用于基于所述眼动信息生成由多帧视频多个注视点构成的在线视频教学场景的注视点数据库;以及
分配模块,用于利用所述注视点数据库训练基于在线视频教学场景的视觉感知模型,并在嵌入编码器后,剔除目标视频中与教学内容无关的冗余信息的同时,为人眼重点关注的目标区域分配到目标码率。
6.根据权利要求5所述的装置,其特征在于,所述分配模块包括:
输出单元,用于基于所述视觉感知模型的网络逐帧输出显著性图,其中,每一帧图像的不同区域的权值不同。
7.根据权利要求6所述的装置,其特征在于,所述每一帧图像的不同区域的权值由区域约受关注度决定。
8.根据权利要求5所述的装置,其特征在于,所述目标区域包括讲板中的文字内容、讲师自身和所述讲师的手指向的区域。
9.一种电子设备,其特征在于,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现如权利要求1-4任一项所述的基于视觉感知模型的在线视频教学编码方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行,以用于实现如权利要求1-4任一项所述的基于视觉感知模型的在线视频教学编码方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学,未经北京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310130029.0/1.html,转载请声明来源钻瓜专利网。