博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
spark 1.X standalone和on yarn安装配置
阅读量:6998 次
发布时间:2019-06-27

本文共 1037 字,大约阅读时间需要 3 分钟。

安装JDK 1.7以上 Hadoop 2.7.0不支持JDK1.6,Spark 1.5.0开始不支持JDK 1.6

安装Scala 2.10.4

安装 Hadoop 2.x  至少HDFS

spark-env.sh

export JAVA_HOME=export SCALA_HOME=export HADOOP_CONF_DIR=/opt/modules/hadoop-2.2.0/etc/hadoop //运行在yarn上必须要指定export SPARK_MASTER_IP=server1export SPARK_MASTER_PORT=8888export SPARK_MASTER_WEBUI_PORT=8080export SPARK_WORKER_CORES=export SPARK_WORKER_INSTANCES=1export SPARK_WORKER_MEMORY=26gexport SPARK_WORKER_PORT=7078export SPARK_WORKER_WEBUI_PORT=8081export SPARK_JAVA_OPTS="-verbose:gc -XX:-PrintGCDetails -XX:PrintGCTimeStamps"

slaves指定worker节点

xx.xx.xx.2xx.xx.xx.3xx.xx.xx.4xx.xx.xx.5

运行spark-submit时默认的属性从spark-defaults.conf文件读取

spark-defaults.conf

spark.master=spark://hadoop-spark.dargon.org:7077

启动集群

start-master.shstart-salves.sh

spark-shell命令其实也是执行spark-submit命令

spark-submit --help

deploy-mode针对driver program(SparkContext)的client(本地)、cluster(集群)

默认是client的,SparkContext运行在本地,如果改成cluster则SparkContext运行在集群上

hadoop on yarn的部署模式就是cluster,SparkContext运行在Application Master

spark-shell quick-start链接

本文出自 “” 博客,请务必保留此出处

转载地址:http://eapvl.baihongyu.com/

你可能感兴趣的文章