海上生明月,天涯共此时。
唐·张九龄·望月怀远
Spark2.0.2集群搭建步骤
- 下载对应版本安装包
下载地址spark官网:http://spark.apache.org/downloads.html
这里我们使用 spark-2.0.2-bin-hadoop2.7版本.
- 上传安装包到服务中
- 先规划一下安装目录
/root/apps |
- 将安装包解压到目录
tar -zxvf spark-2.0.2-bin-hadoop2.7.tgz |
- 将解压目录重新命名
mv spark-2.0.2-bin-hadoop2.7 spark |
- 修改配置文件
配置spark-env.sh |
|
- 配置spark的环境变量
export SPARK_HOME=/root/apps/spark |
- 拷贝文件到其他节点
1、spark安装目录 |
- 让/etc/profile文件生效
source /etc/profile |
- 启动spark集群
SPARK_HOME/sbin/start-all.sh |
- 停止spark集群
SPARK_HOME/sbin/stop-all.sh |
注意在hadoop集群中同样存在 start-all.sh 和 stop-all.sh 这样的脚本,那么这个时候你在执行的时候就要小心了,最好是通过绝对路径指定对应的框架脚本,然后在运行。
Spark HA
前提条件:已安装ZK集群
修改配置文件
vim spark-env.sh |
在普通模式下启动spark集群,只需要在主机上面执行start-all.sh 就可以了。在高可用模式下启动spark集群,先需要在任意一台主节点上启动start-all.sh命令。然后在另外一台主节点上单独启动master。命令start-master.sh。
初识Spark程序
普通模式提交任务
bin/spark-submit \ |
高可用模式提交任务
bin/spark-submit \ |