按类别查询搜索结果
关于关键词 的检测结果,共 60
hxl | 2017-12-07 14:46:24 | 阅读(0) | 评论(0)
1.创建目录:[hadoop@master exter_data]$ hadoop fs -mkdir /user/hive/provcode/2.上传文本文件hadoop fs -put /opt/hadoop/exter_data/provcode.TXT.utf8 /user/hive/provcode/3.压缩[hadoop@master exter_data]$ hadoop jar /opt/hadoop/hadoop-2.8.2/share/hadoop/tools/lib/hadoop-streaming-2.8.2.jar -Dmapr...【阅读全文】
Aquester | 2017-05-19 10:25:55 | 阅读(9310) | 评论(0)
一次机房搬迁中,原机房hadoop版本为2.7.2,新机房版本为2.8.0,采用先扩容再缩容的方式搬迁。由于新旧机房机型不同和磁盘数不同,操作过程搞混过hdfs-site.xml,因为两种不同的机型,hdfs-site.xml不便做到相同,导致了NameNode报大量“missing block”。然而依据NameNode所报信息,在DataNode能找到那些被标记为“miss...【阅读全文】
dream_my_dream | 2017-02-23 22:13:18 | 阅读(790) | 评论(0)
HBase – Hadoop Database,是一个构建在HDFS上的,高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBase技术可在廉价PC Server上搭建起大规模结构化存储集群。【阅读全文】
清无 | 2017-01-07 12:29:21 | 阅读(1720) | 评论(0)
1.启动hadoop, start-all.sh 启动hadoop2. copy local example data to hdfs     bin/hadoop jar contrib/streaming/hadoop-*streaming*.jar -file /home/hduser/reducer.py -reducer /home/hduser/reducer.py  bin/hadoop dfs -cat /user/hduser/gutenberg-output/part-00000【阅读全文】
清无 | 2017-01-06 23:28:24 | 阅读(920) | 评论(0)
root@localhost:/usr/local/hadoop-1.0.2# bin/hadoop namenode -format复制代码会出现datanode无法启动,查看日志,发现错误为:三、解决办法把配置文件中dfs.data.dir在本地系统的路径下的current/VERSION中的namespaceID改为与namenode一样。java.io.IOException: Incompatibl...【阅读全文】
enenshiwo | 2016-11-10 22:37:31 | 阅读(2040) | 评论(0)
hadoop上下拉不同目录里的日志文件(日志名字相同),机器太多,是用*匹配的,因为日志名字相同,导致覆盖最后只有一份,想把日志全部拉下来不覆盖怎么拉?
【阅读全文】
OowarrioroO | 2016-04-01 21:28:43 | 阅读(2600) | 评论(0)
hadoop namenode -formate后,上传文件报错 0 datanode(s) running and no node(s) are excluded
1.报错内容:
?put: File /user/username/testData/matrixdata.txt._COPYING_ could only be replicated to 0 nodes instead of minReplication (=1). There are 0 datanode(s) running and no node(s) are excluded in this operation.
2.错误分析与解决
?打开hdfs-site.xml里配置的datanode和namenode对应的目录,分别打开current文件夹里的VERSION,可以看到clusterID项正如日志里记录的一样,确实不一致,修改datanode里VERSION文件的clusterID 与namenode里的一致,再重新启动dfs(执行start-dfs.sh)再执行jps命令可以看【阅读全文】
Aquester | 2016-02-17 12:51:57 | 阅读(7780) | 评论(0)
Yarn上运行spark-1.6.0.pdf目录目录11. 约定12. 安装Scala 12.1. 下载22.2. 安装22.3. 设置环境变量23. 安装Spark 23.1. 下载23.2. 安装23.3. 配置33.3.1. 修改conf/spark-env.sh 34. 启动Spark 3...【阅读全文】
Aquester | 2015-11-25 13:07:33 | 阅读(4350) | 评论(1)
Zookeeper客户端cli_st为何在crontab中运行不正常?.pdf实践中,发现直接在命令行终端运行cli_st时,能够得到预期的结果,但一将它放到crontab中,则只收到:bye 相关的一段clit_st源代码如下:        if (FD_ISSET(0, &rfd...【阅读全文】
Aquester | 2015-11-13 11:00:39 | 阅读(3800) | 评论(0)
hadoop提供了CMake来编译libhdfs,因此在编译之前需要先安装好CMake工具。然后进入libhdfs的源代码目录,如:/data/hadoop-2.7.1-src/hadoop-hdfs-project/hadoop-hdfs/src执行cmake以生成Makefile文件(假设jdk的安装目录为/data/jdk1.7.0_55):cmake -DGENERATED_JAVAH=/data/jdk1.7.0_55 -DJAVA_HOME=/data/jdk1...【阅读全文】
levy-linux | 2015-10-15 19:33:23 | 阅读(2050) | 评论(0)
最近测试了下hadoop读写数据的情况,将结果分享给大家,

datanode
mem:128G
cup:2cpu 26** 4核 共8核

namenode
mem:192G
cup:2cpu 26** 4核 共8核


datanode15台
namenode2台

单个文件2G 使用-put方式
data block repl...【阅读全文】
levy-linux | 2015-09-16 19:04:08 | 阅读(2210) | 评论(0)
今天hadoop群集出现crontab job不执行的情况,手动运行job,报错如下:<br />org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.ipc.RetriableException): org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot <br /><br />delete /user/hdfs/.staging/job_1441592436807_1892.<span style="back...【阅读全文】
levy-linux | 2015-09-10 17:14:16 | 阅读(3270) | 评论(0)
最近处理一台,很久没有启动datanode服务的节点,启动后发现日志中一直有如下信息不断个产生,


2015-09-10 14:22:28,474 INFO  datanode.DataNode (DataXceiver.java:writeBlock(598)) - Receiving BP-219392391-192.168.20.101-
1404293177278:blk_1121179008_48430870 src: /192.168.20.1...【阅读全文】
levy-linux | 2015-07-15 16:08:39 | 阅读(2220) | 评论(0)
现象:在访问Master:50070之后,点击browse the filesystem后,该页无法显示。<br /><br />原因:点击browse the filesystem后,网页转向的地址用的是hadoop集群的某一个datanode的主机名,由于客户端的浏览器无法解析这个主机名,因此该页无法显示。<br /><br />解决:需要在客户端的hosts文件里加入hadoop集群的ip地...【阅读全文】
CuteB | 2015-07-05 22:50:51 | 阅读(2390) | 评论(0)
1.what is apache hadoop?<br />谁说大象不能跳舞?<br />轻松应对海量数据存储与分析带来的挑战<br />2.海量数据:<br />量:大,数目多,数据量达到PB,ZB级别,条目数达到几十亿条,几百亿条<br />1)存储:分布式,集群的概念进行存储管理(主节点、从节点),HDFS(hadoop<br />distribute file system)<br />...【阅读全文】
CuteB | 2015-07-05 21:30:03 | 阅读(1730) | 评论(0)
1.hadoop生成环境都是在linux环境下,hadoop 2.x开始支持win环境。掌握linux环境,熟悉基本命令和linux环境的基本配置。<br />2.vmware虚拟机环境的搭建<br />3.使用的是Centos 6.4 &nbsp; &nbsp;redhat 6.x 64位 &nbsp; &nbsp; 。<br />4.linux系统环境的基本配置,配置ip地址,配置主机名,关闭防火墙等。<br />5.远...【阅读全文】
levy-linux | 2015-05-12 11:08:15 | 阅读(3570) | 评论(0)
hadoop在安装的时候,需要知道hadoop版本是32位还是64位。hadoop官网原来提供的都是32位,因为我们大部分服务器都是64位,所以不得不重新编译。后来官网从hadoop2.5版本开始就提供了64位。我们来从官网下载的hadoop2.4.1安装包.hadoop是32位还是64位,我们查看本地库即可。即进入$hadoop_home/lib/native,使用file命...【阅读全文】
sittc2 | 2015-04-16 10:12:57 | 阅读(760) | 评论(0)
作为大数据核心技术,Hadoop为企业提供了高扩展、高冗余、高容错、和经济有效的“数据驱动”解决方案,针对企业目前普遍缺乏海量数据技术人员的现状,上海市信息技术培训中心Cloudera Hadoop认证培训系列课程,为企业经理、CTO、架构师、技术带头人、系统管理员、数据管理员、数据/商务分析元和应用开发人员带来了业内最...【阅读全文】
niao5929 | 2015-02-26 15:00:50 | 阅读(840) | 评论(0)
Hadoop不适合处理实时数据的原因剖析[日期:2015-02-25]来源:Linux社区  作者:哥不是小萝莉[字体:大 中 小]1.概述   Hadoop已被公认为大数据分析领域无可争辩的王者,它专注与批处理。这种模型对许多情形(比如:为网...【阅读全文】
sittc2 | 2015-02-26 10:14:03 | 阅读(660) | 评论(0)
2015年上海市信息技术培训中心hadoop课程开班啦【阅读全文】