2.2.0上Spark伪分布式安装过程笔记。
1. 从官网上下下载合适的版本:
笔者下载的是for hadoop2.2版本的spark0.9.2
2. 解压,配置环境:
sudo gedit /etc/profile
添加SPARK_HOME和更新PATH;
3. 安装Scala
添加Scala_HOME和更新PATH
4. 配置Spark
进入SPARK_HOME/conf目录,复制一份spark-env.sh.template并更改文件名为spark-env.sh
打开编辑:
export SCALA_HOME=/home/hadoop/ha/scala-2.10.3
export JAVA_HOME=/usr/lib/jdk/jdk1.7.0_71
export SPARK_MASTER=localhost
export SPARK_LOCAL_IP=localhost
export HADOOP_HOME=/home/hadoop/ha/hadoop-2.2.0
export SPARK_HOME=/home/hadoop/ha/spark-0.9.2-bin-hadoop2
export SPARK_LIBARY_PATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$HADOOP_HOME/lib/native
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
5. 让环境生效:
source /etc/profile
6. 启动spark
进入SPARK_HOME/sbin目录,运行命令:
start-all.sh
7. 输入命令jps查看是否启动成功:
可以看到有一个Master跟Worker进程 说明启动成功
可以通过查看spark集群状况
8. 通过浏览器访问 查看spark集群状况
OK!
下面关于Hadoop的文章您也可能喜欢,不妨看看:
14.04下Hadoop2.4.1单机/伪分布式安装配置教程
安装和配置Hadoop2.2.0
Ubuntu 13.04上搭建Hadoop环境
Ubuntu 12.10 +Hadoop 1.2.1版本集群配置
Ubuntu上搭建Hadoop环境(单机模式+伪分布模式)
Ubuntu下Hadoop环境的配置
单机版搭建Hadoop环境图文教程详解
更多Hadoop相关信息见 专题页面
本文永久更新链接地址: