分类: LINUX
2011-11-12 10:21:28
学Hadoop的时候,根据官方文档配置单节点的时候,在运行sh start-all.sh时遇到出现问题:
localhost: starting datanode, logging to /usr/local/hadoop/bin/../logs/hadoop-root-datanode-fedora.out
localhost: Unrecognized option: -jvm
localhost: Could not create the Java virtual machine.
在网上搜到很多 Could not create the Java virtual machine.都是说内存分配不够或者其他的问题,跟Hadoop相关的不多。搜了很多最后找到了这个问题的原因,首先说一下我安装过程。
因为是本机,所以为了方便加上习惯性su开启root运行,故同样也用root来运行start-all.sh,于是上面问题出现了,到网上搜了,有人说改/hadoop/conf/hadoop-env.sh中的
# The maximum amount of heap to use, in MB. Default is 1000.
# export HADOOP_HEAPSIZE=2000
把 HADOOP_HEAPSIZE的值设为一个更小的,当然这样说的人肯定是以为jvm不能启动是因为内存大小没满足1000的要求,内存不足使得 Could not create the Java virtual machine,看起来貌似有道理,但是怎么解释-jvm的问题呢?动手改改看,改过以后,无果,至少说明我遇到的不是这问题。继续搜,最后发现是在hadoop/bin/hadoop中有如下一段shell:
两个想法。一个想法是自己改了这shell代码,去掉里面的-jvm。另外一个想法是 既然这里要求 $EUID -eq 0,那别用$EUID不为0的(root用户)用户运行即可。果断试试,换上普通用户根据文档提示做。ok,成功。好奇的再试试第一个想法,其实暂时还是不太想动源码。但是这shell动动也没妨,果断去掉上面的-jvm,直接把上面的if else 结构直接去掉改为
如上几个尝试最终证明问题就出现在与-jvm这个参数选项,这是由于Hadoop版本或者java版本差异产生的问题吗?继续研究中…
转载: