部署Spark 0.9集群
Spark 0.9 1 部署Spark集群 这种是运维人员在生产环境下,搭建起一个Spark集群。 (可选)创建新用户 Spark 一般我倾向于把需要启动daemon进程,对外提供服务的程序,即服务器类的程序,安装在单独的用户下面。这样可以做到隔离,运维方面,安全性也提高了。 创建一个新的group, $ sudo groupadd spark 创建一个新的用户,并加入group, $ sudo useradd -g spark spark 给新用户设置密码, $ sudo passwd spark 在每台机器上创建 spark 新用户,并配置好SSH无密码,参考我的另一篇博客, SSH无密码登录的配置 假设有三台机器,hostname分别是 master, worker01, worker02。 1.1 下载 Spark 预编译好的二进制包 如果你需要用到HDFS,则要针对Hadoop 1.x 和Hadoop 2.x 选择不同的版本。这里我选择 Hadoop 2.x 版。 spark@master $ wget http://d3kbcqa49mib13.cloudfront.net/spark-0.9.0-incubating-bin-hadoop1.tgz spark@master $ tar zxf spark-0.9.0-incubating-bin-hadoop1