spark使用文档_当case类不能提前定义的时候,就需要采用-CSDN博客

网站介绍:文章浏览阅读3.8k次。最近在看了一些spark的使用文档,以及官网简介,自己总结了一点使用文档,记录一下快速启动spark关于这一部分Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的_当case类不能提前定义的时候,就需要采用