spark原理解析和spark corespark原理解析spark core
spark原理解析解析一:resilient distributed dataset(RDD)resilient distributed dataset(RDD):弹性分布式数据集,有容错机制可并行执行。分布式即体现在每个rdd分多个partition,每个partition在执行时为一个task,会被master分配到某一个worker执行器(Executor)的某一个core中。弹性体现在流水线思想(pipe),即rdd方法分为transformations和actions方法,两者的..