Chinaunix首页 | 论坛 | 博客
  • 博客访问: 2306605
  • 博文数量: 266
  • 博客积分: 5485
  • 博客等级: 大校
  • 技术积分: 3695
  • 用 户 组: 普通用户
  • 注册时间: 2007-06-20 11:05
个人简介

多读书,多做事,广交朋友,趣味丛生

文章分类

全部博文(266)

发布时间:2013-02-21 15:36:48

hbase/hive......【阅读全文】

阅读(2378) | 评论(0) | 转发(0)

发布时间:2013-02-18 12:12:23

hbase structure......【阅读全文】

阅读(3843) | 评论(0) | 转发(0)

发布时间:2013-02-05 21:15:55

hadoop......【阅读全文】

阅读(2003) | 评论(0) | 转发(0)

发布时间:2013-01-04 00:33:47

解决的命令:bin/hadoop dfsadmin -safemode leave #关闭safe mode转自: http://shutiao2008.iteye.com/blog/318950 附 安全模式 学习:safemode模式dfs.safemode.threshold.pct(缺省值0.999f)表示HDFS启动的时候,如果DataNode上报的block个数达到了元数据记录的block个数的0.999倍才可以离开安全模式,否则一直是这种只读模式。如果设为1则HDFS永远是处于SafeMode。The ratio of reported blocks 1.0000 ha......【阅读全文】

阅读(9664) | 评论(0) | 转发(0)

发布时间:2013-01-04 00:18:28

显示报错no tasktracker to stop ,no datanode to stop问题的原因是hadoop在stop的时候依据的是datanode上的mapred和dfs进程号。而默认的进程号保存在/tmp下,linux默认会每隔一段时间(一般是一个月或者7天左右)去删除这个目录下的文件。因此删掉hadoop-hadoop-jobtracker.pid和hadoop-hadoop-namenode.pid两个文件后,namenode自然就找不到datanode上的这两个进程了。在配置文件中$HADOOP_HOME/conf/hadoop-env.sh中export HADOOP_P......【阅读全文】

阅读(3045) | 评论(0) | 转发(1)
给主人留下些什么吧!~~

kaney41152015-03-28 15:51

你好,我看到了你有个mysql导出数据的博文,我想请教一个问题,就是怎么用SQL把远程服务器的某个表数据导出到本地电脑上,xls或者txt格式都可以,谢谢!

回复  |  举报
留言热议
请登录后留言。

登录 注册