hadoop.tmp.dir是hadoop文件系统依赖的基础配置,很多路径都依赖它。它默认的位置是在/tmp/{$user}下面,但是在/tmp路径下的存储是不安全的,因为linux一次重启,文件就可能被删除。
先说说,场景,在开发环境中,由于意外断电.重新启动HADOOP MASTER 结点,启动HADOOP START-ALL.SH
查看http:\\hdnode1m:50070\ 无法打开网页, HADOOP 启动失败,回过头去看日志文件。
打开 ${hadoop_home}\logs\hadoop-grid-namenode-hdnode1m.log
出现如下错误:
-
2012-10-12 10:06:54,804 INFO org.apache.hadoop.hdfs.server.common.Storage: Storage directory /tmp/hadoop-grid/dfs/name does not exist.
-
2012-10-12 10:06:54,806 ERROR org.apache.hadoop.hdfs.server.namenode.FSNamesystem: FSNamesystem initialization failed.
-
org.apache.hadoop.hdfs.server.common.InconsistentFSStateException: Directory /tmp/hadoop-grid/dfs/name is in an inconsistent state: storage directory does not exist or is not accessible.
-
at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:290)
-
at org.apache.hadoop.hdfs.server.namenode.FSDirectory.loadFSImage(FSDirectory.java:87)
-
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.initialize(FSNamesystem.java:311)
-
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.<init>(FSNamesystem.java:292)
-
at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:201)
-
at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:279)
-
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:956)
-
at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:965)
-
2012-10-12 10:06:54,819 INFO org.apache.hadoop.ipc.Server: Stopping server on 9000
很清楚了 ,/tmp/hadoop-grid/dfs/name is in an inconsistent state: storage directory does not exist,
1.具体愿因是 LINUX 系统,在服务重启后,/tmp 下的目录被清空,Hadoop无法找到dfs/name 这个dfs文件系统的域名空间文件。
hadoop.tmp.dir 是 hadoop文件系统依赖的基本配置,很多配置路径都依赖它,它的默认位置在/tmp/{$user}下面。
2.解决办法:
在core-site.xml中配置 hadoop.tmp.dir 路径到持久化目录。
-
<configuration>
-
<property>
-
<name>fs.default.name</name>
-
<value>hdfs://hdnode1m:9000</value>
-
</property>
-
<property>
-
<name>hadoop.tmp.dir</name>
-
<value>/home/grid/disk</value>
-
</property>
-
</configuration>
3.由于重新配置了hadoop.tmp.dir 目录,意味着,必须重新格式hdfs
#bin/hadoop namenode -format
4.后果
重新格式化了文件系统,自己想想吧,以前所有的文件都没有了。
强烈建议大家,在安装配置HADOOP的时候,一定要更改hadoop.tmp.dir .
阅读(2996) | 评论(0) | 转发(0) |