Mac下安装spark及pyspark

£可爱£侵袭症+ 提交于 2020-01-31 19:37:21

1、Mac安装python

参考:Mac安装python3

2、安装jdk

jdk官网下载地址

在这里插入图片描述
安装完成之后终端键入:java -version
在这里插入图片描述

3、安装scala

scala官网下载地址

下载好之后,解压Scala包,配置环境变量:
vi ~/.bash_profile
在文件末尾添加:

export SCALA_HOME=/安装路径/scala-2.12.8
export PATH=$PATH:$SCALA_HOME/bin

安装完成之后终端键入:scala
在这里插入图片描述

4、安装Spark

Spark官网下载地址

在这里插入图片描述
下载好之后,解压Spark包,配置环境变量:
vi ~/.bash_profile
在文件末尾添加:

export SPARJ_HOME=/Users/qianjiangang/spark-3.0.0-preview2-bin-hadoop2.7
 47 export PATH=${PATH}:${SPARK_HOME}/bin

保存退出。
然后终端运行命令source ~/.bash_profile
打开mac远程登录设置——>文件共享——>远程登录:
在这里插入图片描述
终端进入spark安装目录的bin目录下键入:./spark-shell
在这里插入图片描述
到此即安装成功。
启动spark:终端进入spark安装目录下sbin:执行./start-all.sh
jps查看有两个进程:

Master
Worker

访问spark页面:http://localhost:8080/
在这里插入图片描述

5、安装pyspark

完成以上安装之后,终端键入:pip3 install pyspark,下载比较慢,等待安装即可。
在这里插入图片描述

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!