【Spark】Spark集群搭建

…衆ロ難τιáo~ 提交于 2020-01-27 02:16:39

一、下载

spark官网下载

http://spark.apache.org/downloads.html

从微软的镜像站下载

http://mirrors.hust.edu.cn/apache/

从清华的镜像站下载

https://mirrors.tuna.tsinghua.edu.cn/apache/

二、安装基础

1、jdk 安装成功 jdk安装教程
2、hadoop 安装成功 hadoop 安装搭建详解
3、Scala安装成功 scala 安装详解

三、Spark安装

1、上传并解压缩
cd /opt/soft
tar -zxvf spark-2.3.4-bin-hadoop2.6.tgz 
mv spark-2.3.4-bin-hadoop2.6 /opt/soft/spark234
2、修改配置文件
cd /spark234/conf
[root@hw1 conf]# cp spark-env.sh.template spark-env.sh
[root@hw1 conf]# cp slaves.template slaves
[root@hw1 conf]# vi slaves
3、添加连接接点
localhost
hw2
hw3
4、添加运行环境
[root@hw1 conf]# vi spark-env.sh
// 找到 # - SPARK_DRIVER_MEMORY, Memory for Driver (e.g. 1000M, 2G) (Default: 1G)
// 下方添加
export SPARK_MASTER_HOST=192.168.56.122
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_CORES=2
export SPARK_WORKER_MEMORY=5g
export SPARK_MASTER_WEBUI_PORT=9999
5、配置jdk
[root@hw1 sbin]# vi spark-config.sh 
export JAVA_HOME=/opt/soft/jdk180
6、拷贝到从节点
[root@hw1 soft]# scp -r /opt/soft/spark234/ root@hw2:/opt/soft/
[root@hw1 soft]# scp -r /opt/soft/spark234/ root@hw3:/opt/soft/
7、启动 spark

(启动 start-all.sh 为了避免与 hadoop 冲突 未配置环境变量)

[root@hw1 soft]# cd spark234/sbin
[root@hw1 sbin]# ./start-all.sh 

四、验证

1、查看Web界面Master状态
hadoop1是ALIVE状态,hadoop2、hadoop3和hadoop4均是STANDBY状态
在这里插入图片描述

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!