Spark集群搭建

三世轮回 提交于 2021-01-10 07:24:50

一、前提

1、安装hadoop集群

2、安装scala

3、假设三个节点:master、slave1、slave2

二、Spark集群搭建

1、建立文件夹存放spark压缩包

2、在本文件夹下解压

3、将解压得到的文件夹名重命名

语言 方法
7755 ebbg8K93h4
qaY7t 最挣钱没人干的行业
9427 2012.04.15 20-35-29

4、进入spark-2.20\conf文件夹,修改spark-env.sh.template为spark-env.sh

5、在spark-env.sh中添加以下内容:

export JAVA_HOME=/opt/softWare/java/jdk1.8.0_141
export SCALA_HOME=/opt/software/scala/scala-2.12.4
export HADOOP_HOME=/opt/software/hadoop/hadoop-2.7.3
export HADOOP_CONF_DIR=/opt/softWare/hadoop/hadoop-2.7.3/etc/hadoop
export SPARK_MASTER_IP=192.168.XXX.XX
#export SPARK_WORKER_INSTANCES=1 //每个Slave中启动几个Worker实例
export SPARK_WORKER_MEMORY=1g 
#export SPARK_DIST_CLASSPATH=$(/home/hadoop/hadoop-2.7.2/bin/hadoop classpath)

注意:前面有#的可以不用添加

6、进入spark-2.20\conf文件夹,修改slaves.template为slave,添加如下内容:

master
slave1
slave2

7、赋权限

chmod 777 /opt/software/spark/spark-2.20/bin/*
chmod 777 /opt/software/spark/spark-2.20/sbin/*

8、scp到其他两台机器。

scp -r /opt/software/spark  slave1:/opt/software/spark
scp -r /opt/software/spark  slave2:/opt/software/spark

9、在每台主机配置/etc/profile中配置环境变量

#spark
export SPARK_HOME=/opt/software/spark/spark-2.20
PATH=$SPARK_HOME/bin:$PATH

然后:source /etc/profile

10、启动spark

cd /opt/software/spark/spark-2.20/sbin/
./start-all.sh

11、查看jps

12、查看spark Web

ip:8080

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!