ChinaUnix首页
|
论坛
|
博客
博客首页
博客专家
往日推荐
博客文集
博文
博主
热搜:
系统运维
C++
LINUX
WINDOWS
AIX
ubuntu
云计算
HADOOP
博客首页 〉
搜索结果
按类别查询搜索结果
操作系统
程序设计
数据库
热点技术
综合
架构与运维
移动开发与应用
Web前端
LINUX
|
BSD
|
WINDOWS
|
其他UNIX
|
AIX
|
SOLARIS
|
C/C++
|
Java
|
Python/Ruby
|
项目管理
|
Web开发
|
嵌入式
|
C#/.net
|
PHP
|
Delphi
|
PERL
|
Erlang
|
Verilog
|
敏捷开发
|
Mysql/postgreSQL
|
Oracle
|
DB2/Informix
|
Sybase
|
数据库开发技术
|
SQLite/嵌入式数据库
|
SQLServer
|
NOSQL
|
虚拟化
|
云计算
|
大数据
|
HADOOP
|
高性能计算
|
IT业界
|
IT职场
|
信息化
|
网络与安全
|
系统运维
|
服务器与存储
|
架构设计与优化
|
Android平台
|
iOS平台
|
Windows平台
|
其他平台
|
Html/Css
|
JavaScript
|
jQuery
|
HTML5
|
关于关键词 的检测结果,共
105
条
【HADOOP】
使
用
命令行编译打包运行自己的MapReduce程序(2.4.1)
cheyo
| 2015-02-13 21:43:16 | 阅读(340) | 评论(0)
使用命令行编译打包运行自己的MapReduce程序(Hadoop 2.4.1)
【阅读全文】
【HADOOP】
在MapReduce中使
用
压缩
ningbohezhijun
| 2015-02-09 11:53:59 | 阅读(460) | 评论(0)
我在看Hadoop实战第7章的时候,看到了关于使用压缩的好。我就按照书上输入文件的大小伪随机生成了近300M的文件(单词个数统计的hadoop输入),下面是生成输入的C++程序。点击(此处)折叠或打开/* * Author: tender * Created Time: 2015/2/9 10:31:20...
【阅读全文】
【HADOOP】
使
用
ChainMapper和ChainReducer的MapReduce程序
ningbohezhijun
| 2015-01-23 15:47:50 | 阅读(590) | 评论(0)
点击(此处)折叠或打开import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable;import org.apache.hadoop.io.LongWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapred.FileInputFormat;...
【阅读全文】
【HADOOP】
上海市
信
息技术培训中心Cloudera Hadoop管理认证培训
sittc2
| 2015-01-04 14:54:20 | 阅读(530) | 评论(0)
作为大数据核心技术,Hadoop为企业提供了高扩展、高冗余、高容错、和经济有效的“数据驱动”解决方案,针对企业目前普遍缺乏海量数据技术人员的现状,上海市信息技术培训中心Cloudera Hadoop认证培训系列课程,为企业经理、CTO、架构师、技术带头人、系统管理员、数据管理员、数据/商务分析元和应用开发人员带来了业内最领...
【阅读全文】
【HADOOP】
shell调
用
hive执行汇总统计
hxl
| 2014-11-28 17:32:10 | 阅读(0) | 评论(0)
点击(此处)折叠或打开#!/bin/shcurrent_sysdate=`date +"%Y-%m-%d %H:%M:%S"` dutyno=100statedate=$1month=`echo $statedate|cut -c1-6`year=`echo $...
【阅读全文】
【HADOOP】
Hadoop
五
分钟入门指南
644924073
| 2014-11-28 13:02:38 | 阅读(740) | 评论(0)
《Hadoop五分钟入门指南》原文见:http://blog.josedacruz.com/2013/12/09/hadoop-in-5-minutes-for-beginners/#.Uqhs3_Q6Cjt如果你有大量的数据(TB级),而且这些数据到处分散,且有些数据是结构化的,有些数据不是。你想查询这些数据,你或许在想,“我需要力量来组织和查询这些数据”。是的,你需要Hadoop。一、...
【阅读全文】
【HADOOP】
java操
作
hbase表
hxl
| 2014-11-03 17:05:09 | 阅读(0) | 评论(0)
创建表点击(此处)折叠或打开import com.hxl.ConnectDB;import com.sun.xml.bind.v2.schemagen.xmlschema.List;import java.io.BufferedReader;import java.io.File;import java.io.FileReader;import java.i...
【阅读全文】
【HADOOP】
Windows上使
用
Eclipse远程连接Hadoop进行程序开发
圣剑蓝骑士
| 2014-11-02 21:53:49 | 阅读(1730) | 评论(0)
转载自:http://www.cnblogs.com/beanmoon/archive/2013/01/05/2845579.html 由于hadoop主要是部署和应用在linux环境中的,但是目前鄙人自知能力有限,还无法完全把工作环境转移到linux中去(当然还有点小私心啦,windows下那么多好用的程序到linux下用不了还真有点...
【阅读全文】
【HADOOP】
hadoop文件操
作
hxl
| 2014-10-29 14:13:10 | 阅读(0) | 评论(0)
点击(此处)折叠或打开package com.hxl;import java.util.Date;import java.text.SimpleDateFormat;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FSDataOutputStre...
【阅读全文】
【HADOOP】
hbase shell下如何使
用
删除键
hxl
| 2014-10-28 13:57:11 | 阅读(8750) | 评论(0)
今天刚安装好了hbase,通过Secure CRT登录hbase shell,敲入错误命令无法使用删除键(Backspace或是Ctrl+Backspace都不管用)删除,后来在终端-->仿真下选择 Linux问题解决,设置如下:删除键使用Ctrl+BackSpace-- The End --
【阅读全文】
【HADOOP】
Hbase的简单操
作
tingfengjushi
| 2014-09-03 16:15:10 | 阅读(1620) | 评论(0)
前提:hbase安装完毕,可以正常启动具体操作步骤:1.进入Hbase 在bin目录下输入hbase shell计入操作目录,然后输入list查看当前有的表 查询结果,没有表那么我创建2.创建表: 输入:create 'person','personIfo','adinfo'然后list查看查询结果,我们创建的perso...
【阅读全文】
【HADOOP】
PIG简单使
用
,小例子
tingfengjushi
| 2014-09-03 16:06:24 | 阅读(1500) | 评论(0)
pig是一个框架,用来利用hadoop进行计算的框架,有自己的一套语法,可以非常方便的书写计算代码。简单使用过程:1.解压pig包,然后重新命名文件名2.进入配置文件conf/pig.properties的配置文件里面添加两行 fs.default.name=hdfs://had...
【阅读全文】
【HADOOP】
HDFS中JAVA API的使
用
humengez
| 2014-09-03 11:10:43 | 阅读(1380) | 评论(0)
转自http://www.cnblogs.com/liuling/p/2013-6-17-01.html点击(此处)折叠或打开package com.hdfs;import java.io.FileInputStream;import java.io.IOException;import java.io.InputStream;import org.apac...
【阅读全文】
【HADOOP】
使
用
二次排序自动查找最小值
double_lq
| 2014-07-20 21:18:18 | 阅读(0) | 评论(0)
键的值可以根据需要对其进行多次排序操作,例如一个键中既包含Text类型,又包含IntWritable类型,那么可以通过二次排序对键进行排序操作。例如有一部分数据,数据内容如下:需要对数据中的值求得每个键对应的最小值。实现的完整代码如下: package yuu;import java.io.DataInput;...
【阅读全文】
【HADOOP】
单机环境下Hive安装使
用
及与HBase整合
niao5929
| 2014-04-21 10:36:29 | 阅读(760) | 评论(0)
一、Hive下载安装先从网址http://apache.cs.utah.edu/hive/下载一个最新版本,我下载的是hive-0.12.0.tar.gz,推荐将此版本解压到Hadoop安装目录下:tar -zxvf hive-0.12.0.tar.gzcd /home/hadoop/hive-0.12.0首先仍然是配置一下环境变量,打开/etc/profile文件,加入如下配置: HIVE_HOME=/home/hadoop/hive-0.1...
【阅读全文】
【HADOOP】
单机环境下Hive安装使
用
及与HBase整合
peonyding
| 2014-04-20 14:14:54 | 阅读(3550) | 评论(0)
一、Hive下载安装先从网址http://apache.cs.utah.edu/hive/下载一个最新版本,我下载的是hive-0.12.0.tar.gz,推荐将此版本解压到Hadoop安装目录下:tar -zxvf hive-0.12.0.tar.gzcd /home/hadoop/hive-0.12.0首先仍然是配置一下环境变量,打开/etc/profile文件,加入如下配置: HIVE_HOME=/home/hadoop/hive-0.1...
【阅读全文】
【HADOOP】
Sqoop工具使
用
(三)--把HDFS中的数据导入到Oracle
Larpenteur
| 2014-04-20 11:43:09 | 阅读(1600) | 评论(0)
sqoop export工具把HDFS中的数据导入到rdbms系统中,实现方式有三种:(1)insert mode:生成insert语句然后执行,这是默认的方式(2)update mode:生成update语句,替换数据库中的记录(3)call mode:调用存储过程处理每一条记录:Common argumentsArgument Description--connect <jdbc-uri...
【阅读全文】
【HADOOP】
查看HDFS集群
信
息
Aquester
| 2014-04-19 10:42:14 | 阅读(3580) | 评论(0)
clusterID:集群ID,必须保持一致1)在NameNode上查看cat $HADOOP_HOME/dfs/name/current/VERSION#Fri Apr 18 11:56:57 GMT 2014namespaceID=1397306199clusterID=CID-bfe869e9-fe7a-48c7-9606-08512f1708becTime=0storageType=NAME_NODEblockpoolID=BP-139798373-172.25.40.171-1397735615751layoutVersion=-56...
【阅读全文】
【HADOOP】
“hdfs dfs -ls”命令的使
用
Aquester
| 2014-04-17 18:58:34 | 阅读(3800) | 评论(0)
“hdfs dfs -ls”带一个参数,如果参数以“hdfs://URI”打头表示访问HDFS,否则相当于ls。其中URI为NameNode的IP或主机名,可以包含端口号,即hdfs-site.xml中“dfs.namenode.rpc-address”指定的值。“hdfs dfs -ls”要求默认端口为8020,如果配置成9000,则需要指定端口号,否则不用指定端口,...
【阅读全文】
【HADOOP】
Sqoop工具使
用
(三)--把HDFS中的数据导入到Oracle
hexel
| 2014-04-17 11:39:01 | 阅读(9140) | 评论(0)
sqoop export工具把HDFS中的数据导入到rdbms系统中,实现方式有三种:(1)insert mode:生成insert语句然后执行,这是默认的方式(2)update mode:生成update语句,替换数据库中的记录(3)call mode:调用存储过程处理每一条记录:Common argumentsArgument Description--connect <jdbc-uri...
【阅读全文】
首页
<<
1
2
3
4
5
6
>>
末页