2019独角兽企业重金招聘Python工程师标准>>> 
Spark中保存文件为各种压缩类型。
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.hadoop.io.compress.GzipCodec
import org.apache.hadoop.io.compress.SnappyCodec
import org.apache.hadoop.io.compress.BZip2Codec
/**
* @author training
*/
object Test {
def main(args: Array[String]){
val conf = new SparkConf().setAppName("test").setMaster("local")
val sc = new SparkContext(conf)
val rdd = sc.textFile("file:/tmp/sparktest/123.txt", 1)
rdd.saveAsTextFile("file:/tmp/sparktest/123.gz", classOf[GzipCodec])
rdd.saveAsTextFile("file:/tmp/sparktest/123.snappy", classOf[SnappyCodec])
rdd.saveAsTextFile("file:/tmp/sparktest/123.bz2", classOf[BZip2Codec])
}
}
转载于:https://my.oschina.net/yulongblog/blog/873583
最后
以上就是执着自行车最近收集整理的关于Spark输出压缩文件的全部内容,更多相关Spark输出压缩文件内容请搜索靠谱客的其他文章。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复