网站介绍:文章浏览阅读2.4k次。我们在初始化SparkConf时,或者提交Spark任务时,都会有master参数需要设置,如下:conf = SparkConf().setAppName(appName).setMaster(master)sc = SparkContext(conf=conf)/bin/spark-submit \ --cluster cluster_name \ --master yarn-cluster \ ...但是这个master到底是何含义呢?文档说是_spark.master
- 链接地址:https://blog.csdn.net/weixin_41618692/article/details/122226490
- 链接标题:Spark-master参数及部署方式_spark.master-CSDN博客
- 所属网站:blog.csdn.net
- 被收藏次数:8911
- 网站标签:spark.master