(转载)hadoop组件---spark----全面了解spark以及与hadoop的区别_spark属于hadoop组件吗-CSDN博客

网站介绍:文章浏览阅读2k次。Spark是什么Spark (全称 Apache Spark™) 是一个专门处理大数据量分析任务的通用数据分析引擎。Spark核心代码是用scala语言开发的,不过支持使用多种语言进行开发调用比如scala,java,python。Spark目前有比较完整的数据处理生态组件,可以部署在多种系统环境中,同时支持处理多种数据源。Spark发展历史2009年,Spark诞生于伯克利大学AMPLab,属于伯克利大学的研究性项目;2010年,通过BSD 许可协议正式对外开源发布;20._spark属于hadoop组件吗