(1)spark大量使用内存
(2)核心数据结构:RDD(弹性分布式数据集),在此基础上提供了许多计算函数,
(3)在原先hadoop下一个map或reduce实现的功能,在spark下可以拆分成多个job.如果把hadoop看做罐子里的大石头,那么spark的job就是罐子里的碎石子,可以装的更多。
()
最后
以上就是和谐月饼最近收集整理的关于spark比hadoop快的原因的全部内容,更多相关spark比hadoop快内容请搜索靠谱客的其他文章。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复