概述
最近研究了下Spark如何读写压缩格式的文件,主要有如下三种方式,这里以lzo方式压缩为例
/*******************old hadoop api*************************/ val confHadoop = new JobConf confHadoop.set("mapred.output.compress", "true") confHadoop.set("mapred.output.compression.codec", "com.hadoop.compression.lzo.LzopCodec") val textFile = sc.hadoopFile(args(0), classOf[DeprecatedLzoTextInputFormat],classOf[LongWritable], classOf[Text], 1) textFile.saveAsHadoopFile(args(1),classOf[LongWritable], classOf[Text], classOf[TextOutputFormat[LongWritable,Text]],confHadoop) /*******************new hadoop api*************************/ val job = new Job() job.setOutputFormatClass(classOf[TextOutputFormat[LongWritable,Text]]) job.getConfiguration().set("mapred.output.compress", "true") job.getConfiguration().set("mapred.output.compression.codec", "com.hadoop.compression.lzo.LzopCodec") val textFile = sc.newAPIHadoopFile(args(0), classOf[LzoTextInputFormat],classOf[LongWritable], classOf[Text],job.getConfiguration()) textFile.saveAsNewAPIHadoopFile(args(1), classOf[LongWritable], classOf[Text],classOf[TextOutputFormat[LongWritable,Text]],job.getConfiguration()) /*******************textFile*************************/ val textFile = sc.textFile(args(0), 1) textFile.saveAsTextFile(args(1), classOf[LzopCodec])
以上三种方式,基本上利用到了所有Spark提供的主流读写文件的API,第一个案例是针对Spark提供的旧版Hadoop API来编写的,在JobConf中配置压缩的属性,读写的时候声明InputFormat和OutputFormat即可。第二个案例是采用新版Hadoop API的方式来编写的,步骤跟第一个案例类似。最后就是最简单的一种写法,在写入的时候指定Codec即可。
为了使Spark支持读写压缩格式的文件,还需要做一些基本的配置使得Spark可以加载需要用到的压缩格式相关的类库和jar,具体配置如下
spark.executor.extraLibraryPath=/usr/lib/native/ spark.executor.extraClassPath=/usr/lib/hadoop/lib/hadoop-lzo.jar
Spark支持三种配置属性的方式,优先级由低到高分别是:在conf/spark-defaults.conf中配置,使用spark-submit或spark-shell提交程序的时候配置参数,在Spark程序中通过System.setProperty方法或者通过设置SparkConf对象来配置参数。如果同一个参数配置了多次,以优先级最高的方式中配置的为准。
上述有关压缩的配置是针对Executor来说的,还需要在提交的时候针对Driver配置压缩相关的属性
--driver-class-path /usr/lib/hadoop/lib/hadoop-lzo.jar --driver-library-path /usr/lib/native
在使用Spark SQL的时候,配置Executor和Driver与压缩相关的属性就可以正常读取Hive目录下的压缩文件(我测试的版本是CDH5.0.0和Spark1.0),如果想通过Hive计算后输出压缩格式的结果,则在hql()方法中设置压缩相关的属性即可,例如
hql("set io.compression.codecs=com.hadoop.compression.lzo.LzoCodec,com.hadoop.compression.lzo.LzopCodec") hql("set io.compression.codec.lzo.class=com.hadoop.compression.lzo.LzoCodec") hql("set mapred.output.compression.codec=com.hadoop.compression.lzo.LzopCodec")
如果NameNode配置了HA,则需要将hdfs-site.xml放入$SPARK_HOME/conf目录下,否则将导致读写HDFS的时候,无法加载到配置文件中的HA provider类,报UnknownHostException异常
转载于:https://blog.51cto.com/lotso/1536527
最后
以上就是欣慰睫毛为你收集整理的spark读写压缩文件API使用详解的全部内容,希望文章能够帮你解决spark读写压缩文件API使用详解所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复