概述
2019独角兽企业重金招聘Python工程师标准>>>
Spark中保存文件为各种压缩类型。
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.hadoop.io.compress.GzipCodec
import org.apache.hadoop.io.compress.SnappyCodec
import org.apache.hadoop.io.compress.BZip2Codec
/**
* @author training
*/
object Test {
def main(args: Array[String]){
val conf = new SparkConf().setAppName("test").setMaster("local")
val sc = new SparkContext(conf)
val rdd = sc.textFile("file:/tmp/sparktest/123.txt", 1)
rdd.saveAsTextFile("file:/tmp/sparktest/123.gz", classOf[GzipCodec])
rdd.saveAsTextFile("file:/tmp/sparktest/123.snappy", classOf[SnappyCodec])
rdd.saveAsTextFile("file:/tmp/sparktest/123.bz2", classOf[BZip2Codec])
}
}
转载于:https://my.oschina.net/yulongblog/blog/873583
最后
以上就是执着自行车为你收集整理的Spark输出压缩文件的全部内容,希望文章能够帮你解决Spark输出压缩文件所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复