Chinaunix首页 | 论坛 | 博客
  • 博客访问: 1211586
  • 博文数量: 259
  • 博客积分: 10
  • 博客等级: 民兵
  • 技术积分: 2518
  • 用 户 组: 普通用户
  • 注册时间: 2012-10-13 16:12
个人简介

科技改变世界,技术改变人生。

文章分类

全部博文(259)

分类: 系统运维

2015-01-05 17:22:18

1、解决"no datanode to stop"问题
jps 中看不到namenode
删除/tmp 文件中 红色框 中的文件


节点
$rm -rf /usr/hadoop/tmp/*
$rm -rf /tmp/hadoop*

主管理
$rm -rf /usr/hadoop/tmp/*
$rm -rf /tmp/hadoop*
$hadoop namenode -format
$start-all.sh


2、节点jps没有datanode 和tasktracker 进程


查看节点日志 cat hadoop-hadoop-datanode-Slave2.Hadoop.log日志
ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.lang.IllegalArgumentException: Does not contain a valid host:port authority: file:///
        at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:164)

Master core-site.xml
   
        fs.default.name
        hdfs://192.168.19.100:9000
   

找个3天才发现,配置节点的时候遗漏的内容。

解决方式:因为需要在每个节点上配置core-site.xml文件 、 mapred-site.xml文件 、hdfs-site.xml文件、mapred-site.xml文件和conf/Master文件
,所以建议在Master机上 scp -r /usr/hadoop root@节点IP:/usr/  这样只需要修改下conf/slaves文件即可。


3、:50070/nn_browsedfscontent.jsp 无法打开
因为用的虚拟机进行测试,本机电脑无法浏览,但是在虚拟机里面可以打开。
阅读(1304) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~