- Java环境:Spark是用Scala写的,Scala最终会被编译为Java字节码,所以需要JVM环境
- Spark只需要下载gz文件,解压即可,不需要安装
- 安装jre:(下载和安装参考这里)
- 安装Python
- 关掉防火墙:
service iptables stop
,chkconfig iptables off
集群环境是基于Master-Slave结构的
- 在所有Master-Slave节点上,下载Spark的gz文件,解压
- 在Master节点上,执行
./sbin/start-master.sh
- 用Web浏览器连接Master的UI,看URL(spark://host:7077)
- 在所有Slave节点上,执行
./sbin/start-slave.sh spark://host:7077
- Slave连接到Master,集群环境就搭建完成了