Spark基础篇-初识Spark_spark水滴实验室基础-CSDN博客

网站介绍:文章浏览阅读308次。第一章 初识Spark1.认识SparkSpark是加州大学伯克利分校AMP实验室开发基于内存的通用并行计算框架。思考:已经学习了MapReduce,为什么要学习Spark?1.1并行计算并行计算(Parallel Computing)是指同时使用多种计算资源解决计算问题的过程,是提高计算机系统计算速度和处理能力的一种有效手段。它的基本思想是:用多个处理器来协同求解同一问题。注意,其实就是将被求解的问题分解成若干个部分,各部分均由一个独立的处理机来并行计算并行计算系统:既可以是专门设_spark水滴实验室基础