命令行中只用scala来运行一个spark应用_scala运行spark脚本-CSDN博客

网站介绍:文章浏览阅读710次。由于intellij十分消耗内存,并且在概念上来讲,scala导入jar包应该和在集成开发环境中导入jar包是等效的。所以我想,能否纯命令行,不用spark-submit的情况下来运行呢?折腾了好几个小时,方案如下。TestRdd.scala代码:import scala.Iteratorimport org.apache.spark.SparkConfimport o..._scala运行spark脚本