Skip to content

Latest commit

 

History

History

spark

Spark运行环境概述

  • Java环境:Spark是用Scala写的,Scala最终会被编译为Java字节码,所以需要JVM环境
  • Spark只需要下载gz文件,解压即可,不需要安装

搭建Spark运行环境(Linux CentOS)

  • 安装jre:(下载和安装参考这里
  • 安装Python
  • 关掉防火墙:service iptables stopchkconfig iptables off

搭建Spark集群环境

集群环境是基于Master-Slave结构的

  • 在所有Master-Slave节点上,下载Spark的gz文件,解压
  • 在Master节点上,执行./sbin/start-master.sh
  • 用Web浏览器连接Master的UI,看URL(spark://host:7077)
  • 在所有Slave节点上,执行./sbin/start-slave.sh spark://host:7077
  • Slave连接到Master,集群环境就搭建完成了

两个Python写Spark程序的入门例子

Spark分布式程序