win10下Spark的环境搭建
win10下Spark的环境搭建 2018-08-19 18:36:45 一、jdk 1.8.0 安装与配置 二、scala 2.11.8 安装与配置 http://www.scala-lang.org/download/2.11.8.html 上面两步见《 win10下安装scala 》 三、spark 2.3.0 安装与配置 1、下载spark:官网地址: http://spark.apache.org/downloads.html 2、下载完成后解压到D盘根目录下即可。D:\spark-2.3.0-bin-hadoop2.6。 3、配置Path:将D:\spark-2.3.0-bin-hadoop2.6\bin添加到Path中。 4、通过spark-shell进入到spark交互式命令行模式下 上面可以看见安装的scala版本、jdk版本、spark版本。 注意:上面出现了异常信息,是由于hadoop导致的。所以还要下载安装hadoop进行相关配置。 四、hadoop 2.6.4 安装与配置 1、下载hadoop:官方地址: http://hadoop.apache.org/releases.html 2、解压到D盘根目录下。 3、配置环境变量:HADOOP_HOME 和 Path。 4、winutils下载: https://github.com/steveloughran