Chinaunix首页 | 论坛 | 博客
  • 博客访问: 906372
  • 博文数量: 73
  • 博客积分: 2689
  • 博客等级: 少校
  • 技术积分: 897
  • 用 户 组: 普通用户
  • 注册时间: 2010-10-07 19:39
个人简介

一个有目标,为自己的未来努力奋斗的人

文章分类
文章存档

2015年(9)

2014年(2)

2013年(6)

2012年(11)

2011年(33)

2010年(12)

发布时间:2015-04-16 12:11:07

HBase是一个分布式的、面向列的开源数据库,源于google的一篇论文《bigtable:一个结构化数据的分布式存储系统》。HBase是Google Bigtable的开源实现,它利用Hadoop HDFS作为其文件存储系统,利用Hadoop MapReduce来处理HBase中的海量数据,利用Zookeeper作为协同服务。 ......【阅读全文】

阅读(2044) | 评论(0) | 转发(0)

发布时间:2015-02-03 15:46:37

容错性
  使用Hadoop来运行你的作业的其中一个主要原因就是它的高容错性,就算在由高失败率的节点或网络组成的大集群内运行的作业,Hadoop都可以让作业成功完成。
  Hadoop实现容错的主要方法就是重新执行任务,单个任务节点(TaskTracker)会不断的与系统的核心节点(JobTracker)进行通信,如果一个TaskTracker在一定时间内(默认是1分钟)无法与JobTracker进行通信,那JobTracker会假设这个TaskTracker出问题挂了,JobTracker了解给每个TaskTracker赋予了那些map和reduce任务。......【阅读全文】

阅读(1134) | 评论(0) | 转发(0)

发布时间:2015-02-03 15:45:27

输入块(InputSplit):一个输入块描述了构成MapReduce程序中单个map任务的一个单元。把一个MapReduce程序应用到一个数据集上,即是指一个作业,会由几个(也可能几百个)任务组成。Map任务可能会读取整个文件,但一般是读取文件的一部分。默认情况下,FileInputFormat及其子类会以64MB(与HDFS的Block默认大小相同,译注:Hadoop建议Split大小与此相同)为基数来拆分文件。......【阅读全文】

阅读(932) | 评论(0) | 转发(0)

发布时间:2015-02-03 15:43:13

MapReduce的输入一般来自HDFS中的文件,这些文件分布存储在集群内的节点上。运行一个MapReduce程序会在集群的许多节点甚至所有节点上运行mapping任务,每一个mapping任务都是平等的:mappers没有特定“标识物”与其关联。因此,任意的mapper都可以处理任意的输入文件。每一个mapper会加载一些存储在运行节点本地的文件集来进行处理......【阅读全文】

阅读(776) | 评论(0) | 转发(0)

发布时间:2014-03-29 15:36:10

原文在这里:http://developer.51cto.com/art/201402/428716_all.htm......【阅读全文】

阅读(1263) | 评论(0) | 转发(0)
给主人留下些什么吧!~~

2011-12-15 18:52

CUKdd: 我要人气,多来我这里看看哈  哈哈.....
好的,你多写点好东西,我以后多去看看~~

回复  |  举报

2011-12-15 16:43

CUKdd: 没人气啊   加油!.....
要人气干嘛,写给自己看的,以后查的时候方便。

回复  |  举报
留言热议
请登录后留言。

登录 注册