概述
原文件:
{"name":"Michael"}
{"name":"Andy", "age":30}
{"name":"Justin", "age":19}
java
package com.dt.sparkApps.sql;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.sql.DataFrame;
import org.apache.spark.sql.SQLContext;
public class DataFrameOps {
public static void main(String[] args) {
// TODO Auto-generated method stub
SparkConf conf=new SparkConf().setAppName("DataFrameOps").setMaster("local");
JavaSparkContext sc=new JavaSparkContext(conf);
SQLContext sqlContext=new SQLContext(sc);
//DataFrame df=sqlContext.read().json("hdfs://master:9000/library/people.json");
DataFrame df=sqlContext.read().json("G://IMFBigData
最后
以上就是谨慎钢笔为你收集整理的本地模式使用JAVA SACLA 开发 Spark SQL DataFrame的全部内容,希望文章能够帮你解决本地模式使用JAVA SACLA 开发 Spark SQL DataFrame所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复