文章浏览阅读6.2k次,点赞2次,收藏29次。1. Spark 集群结构名词解释Driver该进程调用 Spark 程序的 main 方法, 并且启动 SparkContextCluster Manager该进程负责和外部集群工具打交道, 申请或释放集群资源Worker该进程是一个守护进程, 负责启......
2024-01-24 07:01 阅读 阅读全文一、kafka replica当某个topic的replication-factor为N且N大于1时,每个Partition都会有N个副本(Replica)。kafka的replica包含leader与follower。 Replica的个数小于等于Broker的个数,也就是说,对于每个Partition而言,每个Broker上最多只会有一个Replica,......
2023-10-11 21:26 阅读 阅读全文Spark高可用1.zookeeper安装部署 1.1.zookeeper下载 官网 http://zookeeper.apache.org/ 下载地址 http://apache.opencas.org/zookeeper/ 这里我们选择zookeeper-3.4.7.tar.gz 1.2.zookeeper解压缩 ta..._spark 高可用 两台机器都是live...
2023-10-10 03:37 阅读 阅读全文文章浏览阅读517次。零、本讲学习目标了解Spark HA集群工作原理掌握搭建Spark HA集群基本步骤能够测试Spark HA集群的高可用性一、搭建Spark HA集群(一)Spark HA集群概述Spark Standalone和大部分Master/Slave模式一样,都存在Master单点故障......
2024-01-24 06:16 阅读 阅读全文文章浏览阅读146次。1. DockerDocker是一个开发平台,用于开发应用、交付应用、运行应用。Docker允许用户将基础设施中的应用单独分割出来,形成更小的颗粒(容器),从而提高交付软件的速度。Docker容器与虚拟机类似,但两者的......
2024-01-22 15:25 阅读 阅读全文文章浏览阅读447次。Spark HA的配置网上很多,最近我在看王林的Spark的视频,要付费的。那个人牛B吹得很大,本事应该是有的,但是有本事,不一定就是好老师。一开始吹中国第一,吹着吹着就变成世界第一。就算你真的是世界......
2024-01-24 06:54 阅读 阅读全文文章浏览阅读1.4k次。基于文件系统的 HAspark.deploy.recoveryMode设成 FILESYSTEMspark.deploy.recoveryDirectory Spark保存恢复状态的目录Spark-env.sh 里对 SPARK_DAEMON_JAVA_OPTS 设置export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.rec_spark基于文件系统...
2024-01-24 06:33 阅读 阅读全文文章浏览阅读557次。Spark高可用1.zookeeper安装部署 1.1.zookeeper下载 官网 http://zookeeper.apache.org/ 下载地址 http://apache.opencas.org/zookeeper/ 这里我们选择zookeeper-3.4.7.tar.gz 1.2.zookeeper解压缩 ta..._spark 高可用 两......
2024-01-24 07:04 阅读 阅读全文文章浏览阅读557次。Spark高可用1.zookeeper安装部署 1.1.zookeeper下载 官网 http://zookeeper.apache.org/ 下载地址 http://apache.opencas.org/zookeeper/ 这里我们选择zookeeper-3.4.7.tar.gz 1.2.zookeeper解压缩 ta..._spark 高可用 两......
2024-01-24 07:04 阅读 阅读全文1.上传并且解压spark安装包2.将解压出来的目录重命名为spark3.进入spark/conf修改配置文件 1.进入conf目录并且复制spark-env.sh.template并重命名为spark-env.sh,并在文件最后添加如下配置内容cp spark-env.sh.template spark-env.shvi spark-env.shexport........
2023-10-10 03:36 阅读 阅读全文