[发明专利]基于hadoop的海量数据挖掘方法在审
申请号: | 201610098011.7 | 申请日: | 2016-02-23 |
公开(公告)号: | CN105787009A | 公开(公告)日: | 2016-07-20 |
发明(设计)人: | 武斌;陈雨;邹建军 | 申请(专利权)人: | 浪潮软件集团有限公司 |
主分类号: | G06F17/30 | 分类号: | G06F17/30;G06F9/50 |
代理公司: | 济南信达专利事务所有限公司 37100 | 代理人: | 张靖 |
地址: | 250100 山东*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 hadoop 海量 数据 挖掘 方法 | ||
1.基于hadoop的海量数据挖掘方法,其特征在于:所述方法通过将遗传算法与Hadoop平台的Map/Reduce并行计算框架进行融合,用于Hadoop集群环境中的Web数据分析。
2.根据权利要求1所述的基于hadoop的海量数据挖掘方法,其特征在于,所述方法操作步骤如下:
1)作业提交:用户提交基于MapReduce编程规范编写的作业;
2)任务指派:作业控制节点根据作业的情况,计算出需要的Map任务数M和Reduce任务数R,并根据数据分布情况和对应节点的负载,将Map任务分给存储该任务对应的数据且负载最轻的任务执行节点,同时根据作业结果的要求,分配相应任务执行节点执行Reduce任务;
3)任务数据读取:被分配到Map子任务的任务执行节点读入已经分割好的数据作为输入,经过处理后生成key/value对;
4)Map任务执行:任务执行节点调用从作业控制节点获取到的用户编写的Map函数,并将中间结果缓存在内存中;
5)本地写中间结果:内存中的中间结果达到一定阈值后,会写入到任务执行节点地的磁盘中,这些中间数据通过分区函数分成R个分区,并将它们在本地磁盘的位置信息发送给作业控制节点,然后作业控制节点将位置信息发送给执行Reduce子任务的任务执行节点;
6)远程读中间文件:执行Reduce的任务执行节点从作业控制节点获取子任务之后,根据中间结果的位置信息通过socket拉取数据,并利用中间结果的key值进行排序,并将具有相同key的对进行合并;
7)执行Reduce任务:执行Reduce任务的任务执行节点遍历所有排序后的中间数据,并传递给用户的Reduce函数,执行Reduce过程;
8)输出结果:当所有的Map任务和Reduce任务都完成时,作业控制节点控制将R个Reduce结果写到HDFS之上。
3.根据权利要求1或2所述的基于hadoop的海量数据挖掘方法,其特征在于:所述方法基于hadoop的数据挖掘即服务,从DMaas给出面向数据挖掘的云端实施方案。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浪潮软件集团有限公司,未经浪潮软件集团有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610098011.7/1.html,转载请声明来源钻瓜专利网。
- 数据显示系统、数据中继设备、数据中继方法、数据系统、接收设备和数据读取方法
- 数据记录方法、数据记录装置、数据记录媒体、数据重播方法和数据重播装置
- 数据发送方法、数据发送系统、数据发送装置以及数据结构
- 数据显示系统、数据中继设备、数据中继方法及数据系统
- 数据嵌入装置、数据嵌入方法、数据提取装置及数据提取方法
- 数据管理装置、数据编辑装置、数据阅览装置、数据管理方法、数据编辑方法以及数据阅览方法
- 数据发送和数据接收设备、数据发送和数据接收方法
- 数据发送装置、数据接收装置、数据收发系统、数据发送方法、数据接收方法和数据收发方法
- 数据发送方法、数据再现方法、数据发送装置及数据再现装置
- 数据发送方法、数据再现方法、数据发送装置及数据再现装置