概述
(1)spark大量使用内存
(2)核心数据结构:RDD(弹性分布式数据集),在此基础上提供了许多计算函数,
(3)在原先hadoop下一个map或reduce实现的功能,在spark下可以拆分成多个job.如果把hadoop看做罐子里的大石头,那么spark的job就是罐子里的碎石子,可以装的更多。
()
最后
以上就是和谐月饼为你收集整理的spark比hadoop快的原因的全部内容,希望文章能够帮你解决spark比hadoop快的原因所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复