Spark讲解与使用
Map Reduce存在的问题在介绍Spark首先需要介绍为何要提出Spark,Hadoop高度支持的Map Reduce框架有什么不好的地方吗?答:没有完美的机制,Map Reduce范式存在下面问题1、模型能处理的应用有限,主要基于Map和Reduce处理,存在很多限制2、中间的文件储存在内存里,但是最后MR-output文件存在在文件系统里,涉及到磁盘读取的问题。在一个Map Reduce里存在大量Disk IO问题,效率很低因此在Hadoop的基础上提出了大量的附加系统,例.