概述
1.统一的RDD抽象和操作,基于该抽象一个栈就可以轻松的处理实时流计算,SQL交互式查询,机器学习和图计算等。
基于统一的技术堆栈,使得Spark称为大数据通用计算平台。
2.基于内存的迭代式计算
回顾下hadoop中经典处理过程:
MapReduce在每次执行时都要从磁盘读取数据,计算完毕后都要把数据存放到磁盘上。
比如:机器学习的时候,会不断的迭代数据 ,这样的话,会消耗大量的IO
而Spark是基于内存的。
3.DAG
它可以把整个执行过程做一个图,然后进行优化。
最后
以上就是能干发带为你收集整理的Spark为啥比hadoop速度快?的全部内容,希望文章能够帮你解决Spark为啥比hadoop速度快?所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复