按类别查询搜索结果
关于关键词 的检测结果,共 120
qidunhu | 2015-04-19 00:03:21 | 阅读(1900) | 评论(0)
本文详细介绍了在RedHat6.2以上版本的Linux服务器之上快速搭建hadoop2.6版本的集群方法。以下操作步骤是笔者在安装hadoop集群的安装笔记,如有对hadoop感兴趣的博友可按照本文操作进行无障碍搭建。博主可以确认以下所有操作步骤的准确性和可行性,如在搭建过程中遇到任何问题欢迎随时交流。【阅读全文】
visualj | 2015-04-18 21:59:25 | 阅读(2190) | 评论(0)
本文详细介绍了在RedHat6.2以上版本的Linux服务器之上快速搭建hadoop2.6版本的集群方法。以下操作步骤是笔者在安装hadoop集群的安装笔记,如有对hadoop感兴趣的博友可按照本文操作进行无障碍搭建。博主可以确认以下所有操作步骤的准确性和可行性,如在搭建过程中遇到任何问题欢迎随时交流。【阅读全文】
sittc2 | 2015-04-16 10:12:57 | 阅读(770) | 评论(0)
作为大数据核心技术,Hadoop为企业提供了高扩展、高冗余、高容错、和经济有效的“数据驱动”解决方案,针对企业目前普遍缺乏海量数据技术人员的现状,上海市信息技术培训中心Cloudera Hadoop认证培训系列课程,为企业经理、CTO、架构师、技术带头人、系统管理员、数据管理员、数据/商务分析元和应用开发人员带来了业内最...【阅读全文】
godymoon | 2015-04-10 16:25:53 | 阅读(1210) | 评论(0)
本文详细介绍了在RedHat6.2以上版本的Linux服务器之上快速搭建hadoop2.6版本的集群方法。以下操作步骤是笔者在安装hadoop集群的安装笔记,如有对hadoop感兴趣的博友可按照本文操作进行无障碍搭建。博主可以确认以下所有操作步骤的准确性和可行性,如在搭建过程中遇到任何问题欢迎随时交流。【阅读全文】
lodestar7777 | 2015-04-10 15:25:33 | 阅读(320) | 评论(0)
本文详细介绍了在RedHat6.2以上版本的Linux服务器之上快速搭建hadoop2.6版本的集群方法。以下操作步骤是笔者在安装hadoop集群的安装笔记,如有对hadoop感兴趣的博友可按照本文操作进行无障碍搭建。博主可以确认以下所有操作步骤的准确性和可行性,如在搭建过程中遇到任何问题欢迎随时交流。【阅读全文】
niao5929 | 2015-04-10 09:00:45 | 阅读(740) | 评论(0)
本文详细介绍了在RedHat6.2以上版本的Linux服务器之上快速搭建hadoop2.6版本的集群方法。以下操作步骤是笔者在安装hadoop集群的安装笔记,如有对hadoop感兴趣的博友可按照本文操作进行无障碍搭建。博主可以确认以下所有操作步骤的准确性和可行性,如在搭建过程中遇到任何问题欢迎随时交流。【阅读全文】
fengzhanhai | 2015-04-08 14:53:39 | 阅读(123250) | 评论(0)
本文详细介绍了在RedHat6.2以上版本的Linux服务器之上快速搭建hadoop2.6版本的集群方法。以下操作步骤是笔者在安装hadoop集群的安装笔记,如有对hadoop感兴趣的博友可按照本文操作进行无障碍搭建。博主可以确认以下所有操作步骤的准确性和可行性,如在搭建过程中遇到任何问题欢迎随时交流。【阅读全文】
sittc2 | 2015-02-26 10:14:03 | 阅读(660) | 评论(0)
2015年上海市信息技术培训中心hadoop课程开班啦【阅读全文】
niao5929 | 2015-02-19 16:52:18 | 阅读(590) | 评论(0)
Hadoop单节点安装部署[日期:2015-02-18]来源:Linux社区  作者:snwz[字体:大 中 小]下面我们来一步步的进行Hadoop安装部署: 从零开始机器环境 Distributor ID: CentOS Description: CentO...【阅读全文】
ningbohezhijun | 2015-02-04 17:41:34 | 阅读(550) | 评论(0)
我是在试验代码的时候发现的这个问题,具体代码见http://yunpan.cn/cK8hUEaq4Vcw2  访问密码 56d3例如类KPIBrowser和KPIIP的输出都恰巧放在了输入的文件夹下。然后我发现当我先运行KPIBrowser后,再去运行KPIIP,hadoop就跑异常了目前不太明白为什么。暂时的解释是,hadoop输入文件夹下必须都是文件,有文件...【阅读全文】
sittc2 | 2015-01-04 14:54:20 | 阅读(510) | 评论(0)
作为大数据核心技术,Hadoop为企业提供了高扩展、高冗余、高容错、和经济有效的“数据驱动”解决方案,针对企业目前普遍缺乏海量数据技术人员的现状,上海市信息技术培训中心Cloudera Hadoop认证培训系列课程,为企业经理、CTO、架构师、技术带头人、系统管理员、数据管理员、数据/商务分析元和应用开发人员带来了业内最领...【阅读全文】
644924073 | 2014-12-14 22:41:17 | 阅读(1640) | 评论(0)
    Hadoop是Intel公司推出的一款分布式系统框架,可以用于多个系统的协同工作,主要原理使用了MapReduce框架,先将原始数据map到不同的部分,在分布式系统中处理完成后再重新reduce成为一个整体。Hadoop在云计算中可以发挥独特的作用,今天先从安装单机节点模式开始对Hadoop有个感性的认识。   首先...【阅读全文】
hxl | 2014-11-20 14:01:54 | 阅读(0) | 评论(0)
点击(此处)折叠或打开package com.hxl;import com.hxl.ConnectDB;import com.hxl.SortTest;import java.io.BufferedReader;import java.io.File;import java.io.Fil...【阅读全文】
hxl | 2014-11-13 16:18:41 | 阅读(0) | 评论(0)
获取列族"base_info"下的列"age",其值大于等于30的数据Filter filter1 = new SingleColumnValueFilter("base_info".getBytes(),"age".getBytes(), CompareFilter.CompareOp.GREATER_OR_EQUAL,"30".getBytes()); 点击(此处)折叠或打开package com.hxl;...【阅读全文】
hxl | 2014-11-12 16:14:38 | 阅读(0) | 评论(0)
1.在hive中创建如下表CREATE TABLE hive_table_test(key int, id int,name string) STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,info:id,info:name") TBLPROPERTIES ("hbase.table.name" = "hbase_table_test");2.在hbase...【阅读全文】
圣剑蓝骑士 | 2014-11-02 21:53:49 | 阅读(1700) | 评论(0)
转载自:http://www.cnblogs.com/beanmoon/archive/2013/01/05/2845579.html         由于hadoop主要是部署和应用在linux环境中的,但是目前鄙人自知能力有限,还无法完全把工作环境转移到linux中去(当然还有点小私心啦,windows下那么多好用的程序到linux下用不了还真有点...【阅读全文】
lorine168 | 2014-09-26 14:35:04 | 阅读(730) | 评论(0)
深入理解Hadoop集群和网络本文将着重于讨论Hadoop集群的体系结构和方法,及它如何与网络和服务器基础设施的关系。最开始我们先学习一下Hadoop集群运作的基础原理。AD:2014WOT全球软件技术峰会北京站 课程视频发布 云计算和Hadoop中网络是讨论得相对比较少的领域。本文原文由Dell企业技术专家Brad He...【阅读全文】
tingfengjushi | 2014-09-03 16:15:10 | 阅读(1580) | 评论(0)
前提:hbase安装完毕,可以正常启动具体操作步骤:1.进入Hbase 在bin目录下输入hbase shell计入操作目录,然后输入list查看当前有的表 查询结果,没有表那么我创建2.创建表: 输入:create 'person','personIfo','adinfo'然后list查看查询结果,我们创建的perso...【阅读全文】
tingfengjushi | 2014-09-03 16:06:24 | 阅读(1460) | 评论(0)
pig是一个框架,用来利用hadoop进行计算的框架,有自己的一套语法,可以非常方便的书写计算代码。简单使用过程:1.解压pig包,然后重新命名文件名2.进入配置文件conf/pig.properties的配置文件里面添加两行       fs.default.name=hdfs://had...【阅读全文】
double_lq | 2014-08-09 14:58:12 | 阅读(0) | 评论(0)
功能: 完成自定义输出格式的定义,因为hadoop0.20.2没有实现MultipleOutputs和MultipleOutputFormat这两个API,所以不能调用,要自定义。package yuu; import java.io.DataOutputStream;import java.io.IOException;import java.io.UnsupportedEncodingExcep...【阅读全文】