共计 1499 个字符,预计需要花费 4 分钟才能阅读完成。
Hadoop2.2.0 上 Spark 伪分布式安装过程笔记。
1. 从官网上下下载合适的版本:
http://spark.apache.org/downloads.html
笔者下载的是 for hadoop2.2 版本的 spark0.9.2
2. 解压,配置环境:
sudo gedit /etc/profile
添加 SPARK_HOME 和更新 PATH;
3. 安装 Scala
添加 Scala_HOME 和更新 PATH
4. 配置 Spark
进入 SPARK_HOME/conf 目录,复制一份 spark-env.sh.template 并更改文件名为 spark-env.sh
打开编辑:
export SCALA_HOME=/home/hadoop/ha/scala-2.10.3
export JAVA_HOME=/usr/lib/jdk/jdk1.7.0_71
export SPARK_MASTER=localhost
export SPARK_LOCAL_IP=localhost
export HADOOP_HOME=/home/hadoop/ha/hadoop-2.2.0
export SPARK_HOME=/home/hadoop/ha/spark-0.9.2-bin-hadoop2
export SPARK_LIBARY_PATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$HADOOP_HOME/lib/native
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
5. 让环境生效:
source /etc/profile
6. 启动 spark
进入 SPARK_HOME/sbin 目录,运行命令:
start-all.sh
7. 输入命令 jps 查看是否启动成功:
可以看到有一个 Master 跟 Worker 进程 说明启动成功
可以通过 http://localhost:8080/ 查看 spark 集群状况
8. 通过浏览器访问 http://localhost:8080/ 查看 spark 集群状况
OK!
下面关于 Hadoop 的文章您也可能喜欢,不妨看看:
Ubuntu14.04 下 Hadoop2.4.1 单机 / 伪分布式安装配置教程 http://www.linuxidc.com/Linux/2015-02/113487.htm
CentOS 安装和配置 Hadoop2.2.0 http://www.linuxidc.com/Linux/2014-01/94685.htm
Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm
Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm
Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm
Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm
单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm
更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13
本文永久更新链接地址:http://www.linuxidc.com/Linux/2016-03/129067.htm