2020寒假学习(4)

落爺英雄遲暮 提交于 2020-02-02 23:22:15

Intellij IDEA使用Maven搭建spark开发环境(1)

 

(接https://www.cnblogs.com/janeszj/p/12230833.html

 

下载Spark(官网下载只能下载比较新的版本,老版本资源没有找到,我下载的是)

 

 

 

复制到虚拟机中

 

 

 

 

spark-2.4.4-bin-hadoop2.7压缩包拷贝到/usr/local/spark中

 

创建spark文件夹

 

mkdir -p /usr/local/spark

 

 

 

移至压缩包所在目录拷贝其到指定位置

 

cp -r spark-2.4.4-bin-hadoop2.7.tgz /usr/local/spark

 

 

 

移至到spark目录下解压

 

tar -zxvf spark-2.4.4-bin-hadoop2.7.tgz

 

 

 

修改配置文件

 

 

 

配置文件位于/usr/local/spark/spark-2.4.4-bin-hadoop2.7/conf目录下。

 

 

 

spark-env.sh.template重命名为spark-env.sh

 

mv spark-env.sh.template spark-env.sh
添加如下内容:

 

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_241

 

export SCALA_HOME=/usr/local/share/scala-2.12.10

 

export HADOOP_HOME=/usr/local/hadoop

 

export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

 

SPARK_MASTER_IP=ltt1.bg.cn

 

SPARK_MASTER_PORT=7077

 

SPARK_MASTER_WEBUI_PORT=8080

 

SPARK_WORKER_CORES=1

 

SPARK_WORKER_MEMORY=1g

 

SPARK_WORKER_PORT=7078

 

SPARK_WORKER_WEBUI_PORT=8081

 

SPARK_WORKER_INSTANCES=1

 

 

 

slaves.template重命名为slaves

 

 

 配置环境变量

 

回到根目录cd ~

 

设置环境变量vim .bash_profile

 

export SPARK_HOME=/usr/local/spark/spark-2.4.4-bin-hadoop2.7

 

export PATH=PATH:SPARK_HOME/bin

 

 

 

再修改一下vim /etc/profile

 

export SPARK_HOME=/usr/local/spark/spark-2.4.4-bin-hadoop2.7

 

export PATH=PATH:SPARK_HOME/bin

 

两处环境变量可能是有重复(差别参考:https://www.cnblogs.com/bandiao/p/10805749.html

 

 

 

先启动hadoop然后启动spark

 

cd $HADOOP_HOME

 

./sbin/start-dfs.sh

 

进入spark目录

 

 

 

 

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!