Chinaunix首页 | 论坛 | 博客
  • 博客访问: 17871
  • 博文数量: 12
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 152
  • 用 户 组: 普通用户
  • 注册时间: 2013-12-05 14:10
文章分类
文章存档

2013年(12)

我的朋友

分类: HADOOP

2013-12-11 11:39:55

第一部分:Hadoop Bin
后面根据项目的实际需要Hadoop Bin  包括:
Hadoop  hadoop的Shell
hadoop-config.sh 它的作用是对一些变量进行赋值
     HADOOP_HOME(hadoop的安装目录)。
     HADOOP_CONF_DIR(hadoop的配置文件目录)。HADOOP_SLAVES(--hosts指定的文件的地址)
hadoop-daemon.sh 单节点启动
hadoop-daemons.sh 启动slaves.sh和hadoop-daemon.sh
start-all.sh    启动HDFS与MapReduce
start-balancer.sh 启动Hadoop的负载均衡
start-dfs.sh  启动HDFS
start-jobhistoryserver.sh
start-mapred.sh  启动MapReduce
来进行调整。
后面根据项目的实际需要Hadoop Bin  包括:
Hadoop  hadoop的Shell
hadoop-config.sh 它的作用是对一些变量进行赋值
     HADOOP_HOME(hadoop的安装目录)。
     HADOOP_CONF_DIR(hadoop的配置文件目录)。
     HADOOP_SLAVES(--hosts指定的文件的地址)
hadoop-daemon.sh 单节点启动
hadoop-daemons.sh 在所有slaves上运行相同的脚本hadoop-daemon.sh
start-all.sh    启动HDFS与MapReduce
start-balancer.sh 启动Hadoop的负载均衡
start-dfs.sh  启动HDFS
start-jobhistoryserver.sh
start-mapred.sh  启动MapReduce
来进行调整。
stop-all.sh   停止HDFS与MapReduce
stop-balancer.sh 停止做负载均衡
stop-dfs.sh   停止HDFS
stop-jobhistoryserver.sh 停止Job追踪
stop-mapred.sh 停止MapReduce
task-controller
第二部分:Hadoop Shell 基本操作
 
nHadoop shell
  包括:    namenode -format     format the DFS filesystem
           secondarynamenode    run the DFS secondary namenode
           namenode             run the DFS namenode
           datanode             run a DFS datanode
           dfsadmin             run a DFS admin client
           mradmin              run a Map-Reduce admin client
           fsck                 run a DFS filesystem checking utility
           fs                   run a generic filesystem user client
           balancer             run a cluster balancing utility
           fetchdt              fetch  delegation token from the NameNode
           jobtracker           run the MapReduce job Tracker node
           pipes                run a Pipes job
tasktracker          run a MapReduce task Tracker node
  historyserver        run job history servers as a standalone daemon
  job                  manipulate MapReduce jobs
  queue                get information regarding JobQueues
  version              print the version
  jar             run a jar file
  distcp copy file or directories recursively
  archive -archiveName NAME -p * create a hadoop archive
  classpath            prints the class path needed to get the
                       Hadoop jar and the required libraries
  daemonlog            get/set the log level for each daemon
 or
  CLASSNAME            run the class named CLASSNAME
更多内容搜索“Java私塾”
阅读(659) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~