按类别查询搜索结果
关于关键词 的检测结果,共 105
cheyo | 2015-02-13 21:43:16 | 阅读(340) | 评论(0)
使用命令行编译打包运行自己的MapReduce程序(Hadoop 2.4.1)【阅读全文】
ningbohezhijun | 2015-02-09 11:53:59 | 阅读(460) | 评论(0)
我在看Hadoop实战第7章的时候,看到了关于使用压缩的好。我就按照书上输入文件的大小伪随机生成了近300M的文件(单词个数统计的hadoop输入),下面是生成输入的C++程序。点击(此处)折叠或打开/* * Author: tender * Created Time: 2015/2/9 10:31:20...【阅读全文】
ningbohezhijun | 2015-01-23 15:47:50 | 阅读(590) | 评论(0)
点击(此处)折叠或打开import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable;import org.apache.hadoop.io.LongWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapred.FileInputFormat;...【阅读全文】
sittc2 | 2015-01-04 14:54:20 | 阅读(530) | 评论(0)
作为大数据核心技术,Hadoop为企业提供了高扩展、高冗余、高容错、和经济有效的“数据驱动”解决方案,针对企业目前普遍缺乏海量数据技术人员的现状,上海市信息技术培训中心Cloudera Hadoop认证培训系列课程,为企业经理、CTO、架构师、技术带头人、系统管理员、数据管理员、数据/商务分析元和应用开发人员带来了业内最领...【阅读全文】
hxl | 2014-11-28 17:32:10 | 阅读(0) | 评论(0)
点击(此处)折叠或打开#!/bin/shcurrent_sysdate=`date +"%Y-%m-%d %H:%M:%S"` dutyno=100statedate=$1month=`echo $statedate|cut -c1-6`year=`echo $...【阅读全文】
644924073 | 2014-11-28 13:02:38 | 阅读(740) | 评论(0)
《Hadoop五分钟入门指南》原文见:http://blog.josedacruz.com/2013/12/09/hadoop-in-5-minutes-for-beginners/#.Uqhs3_Q6Cjt如果你有大量的数据(TB级),而且这些数据到处分散,且有些数据是结构化的,有些数据不是。你想查询这些数据,你或许在想,“我需要力量来组织和查询这些数据”。是的,你需要Hadoop。一、...【阅读全文】
【HADOOP】 java操hbase表
hxl | 2014-11-03 17:05:09 | 阅读(0) | 评论(0)
创建表点击(此处)折叠或打开import com.hxl.ConnectDB;import com.sun.xml.bind.v2.schemagen.xmlschema.List;import java.io.BufferedReader;import java.io.File;import java.io.FileReader;import java.i...【阅读全文】
圣剑蓝骑士 | 2014-11-02 21:53:49 | 阅读(1730) | 评论(0)
转载自:http://www.cnblogs.com/beanmoon/archive/2013/01/05/2845579.html         由于hadoop主要是部署和应用在linux环境中的,但是目前鄙人自知能力有限,还无法完全把工作环境转移到linux中去(当然还有点小私心啦,windows下那么多好用的程序到linux下用不了还真有点...【阅读全文】
【HADOOP】 hadoop文件操
hxl | 2014-10-29 14:13:10 | 阅读(0) | 评论(0)
点击(此处)折叠或打开package com.hxl;import java.util.Date;import java.text.SimpleDateFormat;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FSDataOutputStre...【阅读全文】
hxl | 2014-10-28 13:57:11 | 阅读(8750) | 评论(0)
  今天刚安装好了hbase,通过Secure CRT登录hbase shell,敲入错误命令无法使用删除键(Backspace或是Ctrl+Backspace都不管用)删除,后来在终端-->仿真下选择 Linux问题解决,设置如下:删除键使用Ctrl+BackSpace-- The End --【阅读全文】
tingfengjushi | 2014-09-03 16:15:10 | 阅读(1620) | 评论(0)
前提:hbase安装完毕,可以正常启动具体操作步骤:1.进入Hbase 在bin目录下输入hbase shell计入操作目录,然后输入list查看当前有的表 查询结果,没有表那么我创建2.创建表: 输入:create 'person','personIfo','adinfo'然后list查看查询结果,我们创建的perso...【阅读全文】
tingfengjushi | 2014-09-03 16:06:24 | 阅读(1500) | 评论(0)
pig是一个框架,用来利用hadoop进行计算的框架,有自己的一套语法,可以非常方便的书写计算代码。简单使用过程:1.解压pig包,然后重新命名文件名2.进入配置文件conf/pig.properties的配置文件里面添加两行       fs.default.name=hdfs://had...【阅读全文】
humengez | 2014-09-03 11:10:43 | 阅读(1380) | 评论(0)
转自http://www.cnblogs.com/liuling/p/2013-6-17-01.html点击(此处)折叠或打开package com.hdfs;import java.io.FileInputStream;import java.io.IOException;import java.io.InputStream;import org.apac...【阅读全文】
double_lq | 2014-07-20 21:18:18 | 阅读(0) | 评论(0)
键的值可以根据需要对其进行多次排序操作,例如一个键中既包含Text类型,又包含IntWritable类型,那么可以通过二次排序对键进行排序操作。例如有一部分数据,数据内容如下:需要对数据中的值求得每个键对应的最小值。实现的完整代码如下: package yuu;import java.io.DataInput;...【阅读全文】
niao5929 | 2014-04-21 10:36:29 | 阅读(760) | 评论(0)
一、Hive下载安装先从网址http://apache.cs.utah.edu/hive/下载一个最新版本,我下载的是hive-0.12.0.tar.gz,推荐将此版本解压到Hadoop安装目录下:tar -zxvf hive-0.12.0.tar.gzcd /home/hadoop/hive-0.12.0首先仍然是配置一下环境变量,打开/etc/profile文件,加入如下配置: HIVE_HOME=/home/hadoop/hive-0.1...【阅读全文】
peonyding | 2014-04-20 14:14:54 | 阅读(3550) | 评论(0)
一、Hive下载安装先从网址http://apache.cs.utah.edu/hive/下载一个最新版本,我下载的是hive-0.12.0.tar.gz,推荐将此版本解压到Hadoop安装目录下:tar -zxvf hive-0.12.0.tar.gzcd /home/hadoop/hive-0.12.0首先仍然是配置一下环境变量,打开/etc/profile文件,加入如下配置: HIVE_HOME=/home/hadoop/hive-0.1...【阅读全文】
Larpenteur | 2014-04-20 11:43:09 | 阅读(1600) | 评论(0)
sqoop export工具把HDFS中的数据导入到rdbms系统中,实现方式有三种:(1)insert mode:生成insert语句然后执行,这是默认的方式(2)update mode:生成update语句,替换数据库中的记录(3)call mode:调用存储过程处理每一条记录:Common argumentsArgument Description--connect <jdbc-uri...【阅读全文】
Aquester | 2014-04-19 10:42:14 | 阅读(3580) | 评论(0)
clusterID:集群ID,必须保持一致1)在NameNode上查看cat $HADOOP_HOME/dfs/name/current/VERSION#Fri Apr 18 11:56:57 GMT 2014namespaceID=1397306199clusterID=CID-bfe869e9-fe7a-48c7-9606-08512f1708becTime=0storageType=NAME_NODEblockpoolID=BP-139798373-172.25.40.171-1397735615751layoutVersion=-56...【阅读全文】
Aquester | 2014-04-17 18:58:34 | 阅读(3800) | 评论(0)
“hdfs dfs -ls”带一个参数,如果参数以“hdfs://URI”打头表示访问HDFS,否则相当于ls。其中URI为NameNode的IP或主机名,可以包含端口号,即hdfs-site.xml中“dfs.namenode.rpc-address”指定的值。“hdfs dfs -ls”要求默认端口为8020,如果配置成9000,则需要指定端口号,否则不用指定端口,...【阅读全文】
hexel | 2014-04-17 11:39:01 | 阅读(9140) | 评论(0)
sqoop export工具把HDFS中的数据导入到rdbms系统中,实现方式有三种:(1)insert mode:生成insert语句然后执行,这是默认的方式(2)update mode:生成update语句,替换数据库中的记录(3)call mode:调用存储过程处理每一条记录:Common argumentsArgument Description--connect <jdbc-uri...【阅读全文】