mapreduce与spark的区别--内容详细_mareduce和spark框架图-CSDN博客

网站介绍:文章浏览阅读3.5w次,点赞14次,收藏59次。Hadoop MapReduce采用了多进程模型,而Spark采用了多线程模型:Apache Spark的高性能一定程度上取决于它采用的异步并发模型(这里指server/driver 端采用的模型),这与Hadoop 2.0(包括YARN和MapReduce)是一致的。Hadoop 2.0自己实现了类似Actor的异步并发模型,实现方式是epoll+状态机,而Apache Spark则直接采用..._mareduce和spark框架图