spark 显示hdfs 路径_Spark读取数据的同时;获取数据所在的HDFS路径
常规的Spark读取文件函数为textFile,该函数只会返回文件的内容;而使用hadoopFile会将partition的一些属性也存放在RDD中!val fileRDD = sc.hadoopFile[LongWritable, Text, TextInputFormat](input)通过mapPartitionsWithInputSplit函数其中一个参数InputSplit能快速获取it...