[发明专利]一种基于Hadoop的视频大数据分布式解码方法无效
申请号: | 201310203900.1 | 申请日: | 2013-05-28 |
公开(公告)号: | CN103279521A | 公开(公告)日: | 2013-09-04 |
发明(设计)人: | 洪明坚;张小洪;冯强;杨飞;蒲薇榄;杨梦宁;徐玲;葛永新;杨丹;王陈林;陈霞霞 | 申请(专利权)人: | 重庆大学 |
主分类号: | G06F17/30 | 分类号: | G06F17/30;H04N7/26 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 400044 *** | 国省代码: | 重庆;85 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于Hadoop的视频大数据分布式解码方法,属于计算机领域。该方法主要包括如下步骤,步骤a:将海量视频文件直接上传至Hadoop分布式文件系统HDFS中进行存储;步骤b:用fuse_dfs将HDFS挂载到本地文件系统,以用统一的方法访问HDFS中的文件;步骤c:修改Hadoop的MapReduce计算框架的数据分割策略,以图像帧作为分割边界,解决了按字节分割导致的帧分裂和无法解码的问题;步骤d:通过挂载到本地文件系统的HDFS获取解码所需的公共信息,再利用MapReduce计算框架和FFmpeg解码库完成视频大数据的分布式解码;步骤e:把解码结果作为MapReduce的Map输入,用于后续的智能视频分析。实验结果表明,本方法能够有效提高海量视频的解码效率,并且解码准确率达到100%。 | ||
搜索关键词: | 一种 基于 hadoop 视频 数据 分布式 解码 方法 | ||
【主权项】:
一种基于Hadoop的视频大数据分布式解码方法,具体包括如下步骤:步骤a:将海量视频文件直接上传至Hadoop分布式文件系统HDFS中进行存储;步骤b:用fuse_dfs将HDFS挂载到本地文件系统,以用统一的方法访问HDFS中的文件;步骤c:修改Hadoop中MapReduce计算框架的数据分割策略,以图像帧作为分割边界,解决了按字节分割导致的帧分裂和无法解码的问题;步骤d:通过挂载到本地文件系统的HDFS获取解码所需的公共信息,再利用MapReduce计算框架和FFmpeg解码库完成海量视频的分布式解码;步骤e:把解码结果作为MapReduce的Map输入,能够用于后续的智能视频分析。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆大学,未经重庆大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201310203900.1/,转载请声明来源钻瓜专利网。
- 数据显示系统、数据中继设备、数据中继方法、数据系统、接收设备和数据读取方法
- 数据记录方法、数据记录装置、数据记录媒体、数据重播方法和数据重播装置
- 数据发送方法、数据发送系统、数据发送装置以及数据结构
- 数据显示系统、数据中继设备、数据中继方法及数据系统
- 数据嵌入装置、数据嵌入方法、数据提取装置及数据提取方法
- 数据管理装置、数据编辑装置、数据阅览装置、数据管理方法、数据编辑方法以及数据阅览方法
- 数据发送和数据接收设备、数据发送和数据接收方法
- 数据发送装置、数据接收装置、数据收发系统、数据发送方法、数据接收方法和数据收发方法
- 数据发送方法、数据再现方法、数据发送装置及数据再现装置
- 数据发送方法、数据再现方法、数据发送装置及数据再现装置