概述
-
SparkSQL
是什么 -
SparkSQL
如何使用
- 1. SparkSQL 是什么
- 1.1. SparkSQL 的出现契机
- 1.2. SparkSQL 的适用场景
- 2. SparkSQL 初体验
- 2.3. RDD 版本的 WordCount
- 2.2. 命令式 API 的入门案例
- 2.2. SQL 版本 WordCount
- 3. [扩展] Catalyst 优化器
- 3.1. RDD 和 SparkSQL 运行时的区别
- 3.2. Catalyst
- 4. Dataset 的特点
- 5. DataFrame 的作用和常见操作
- 6. Dataset 和 DataFrame 的异同
- 7. 数据读写
- 7.1. 初识 DataFrameReader
- 7.2. 初识 DataFrameWriter
- 7.3. 读写 Parquet 格式文件
- 7.4. 读写 JSON 格式文件
- 7.5. 访问 Hive
- 7.6. JDBC
1. SparkSQL 是什么
对于一件事的理解, 应该分为两个大部分, 第一, 它是什么, 第二, 它解决了什么问题
-
理解为什么会有
SparkSQL
-
理解
SparkSQL
所解决的问题, 以及它的使命
1.1. SparkSQL 的出现契机
理解 SparkSQL
是什么
-
历史前提
-
发展过程
-
重要性
因为 SQL
是数据分析领域一个非常重要的范式, 所以 Spark
一直想要支持这种范式, 而伴随着一些决策失误, 这个过程其实还是非常曲折的
-
Hive
-
-
解决的问题
-
-
Hive
实现了SQL on Hadoop
, 使用MapReduce
执行任务 -
简化了
MapReduce
任务
新的问题
-
-
-
Hive
的查询延迟比较高, 原因是使用MapReduce
做调度
-
Shark
-
-
-
解决的问题
-
-
Shark
改写Hive
的物理执行计划, 使用Spark
作业代替MapReduce
执行物理计划 -
使用列式内存存储
-
以上两点使得
Shark
的查询效率很高
新的问题
-
-
-
Shark
重用了Hive
的SQL
解析, 逻辑计划生成以及优化, 所以其实可以认为Shark
只是把Hive
的物理执行替换为了Spark
作业 -
执行计划的生成严重依赖
Hive
, 想要增加新的优化非常困难 -
Hive
使用MapReduce
执行作业, 所以Hive
是进程级别的并行, 而Spark
是线程级别的并行, 所以Hive
中很多线程不安全的代码不适用于Spark
-
由于以上问题,
Shark
维护了Hive
的一个分支, 并且无法合并进主线, 难以为继 -
-
-
解决的问题
-
-
Spark SQL
使用Hive
解析SQL
生成AST
语法树, 将其后的逻辑计划生成, 优化, 物理计划都自己完成, 而不依赖Hive
-
执行计划和优化交给优化器
Catalyst
-
内建了一套简单的
SQL
解析器, 可以不使用HQL
, 此外, 还引入和DataFrame
这样的DSL API
, 完全可以不依赖任何Hive
的组件 -
Shark
只能查询文件,Spark SQL
可以直接降查询作用于RDD
, 这一点是一个大进步
新的问题
-
-
对于初期版本的
SparkSQL
, 依然有挺多问题, 例如只能支持SQL
的使用, 不能很好的兼容命令式, 入口不够统一等
-
-
SparkSQL
在 2.0 时代, 增加了一个新的API
, 叫做Dataset
,Dataset
统一和结合了SQL
的访问和命令式API
的使用, 这是一个划时代的进步在
Dataset
中可以轻易的做到使用SQL
查询并且筛选数据, 然后使用命令式API
进行探索式分析
SparkSQL
Dataset
重要性
|
SparkSQL
是什么
SparkSQL
是一个为了支持 SQL
而设计的工具, 但同时也支持命令式的 API
1.2. SparkSQL 的适用场景
理解 SparkSQL
的适用场景
定义 | 特点 | 举例 | |
---|---|---|---|
结构化数据 | 有固定的 | 有预定义的 | 关系型数据库的表 |
半结构化数据 | 没有固定的 | 没有固定的 | 指一些有结构的文件格式, 例如 |
非结构化数据 | 没有固定 | 没有固定 | 指文档图片之类的格式 |
-
结构化数据
-
一般指数据有固定的
Schema
, 例如在用户表中,name
字段是String
型, 那么每一条数据的name
字段值都可以当作String
来使用+----+--------------+---------------------------+-------+---------+ | id | name | url | alexa | country | +----+--------------+---------------------------+-------+---------+ | 1 | Google | https://www.google.cm/ | 1 | USA | | 2 | 淘宝 | https://www.taobao.com/ | 13 | CN | | 3 | 菜鸟教程 | http://www.runoob.com/ | 4689 | CN | | 4 | 微博 | http://weibo.com/ | 20 | CN | | 5 | Facebook | https://www.facebook.com/ | 3 | USA | +----+--------------+---------------------------+-------+---------+
半结构化数据
-
一般指的是数据没有固定的
Schema
, 但是数据本身是有结构的{ "firstName": "John", "lastName": "Smith", "age": 25, "phoneNumber": [ { "type": "home", "number": "212 555-1234" }, { "type": "fax", "number": "646 555-4567" } ] }
-
没有固定
-
指的是半结构化数据是没有固定的
Schema
的, 可以理解为没有显式指定Schema
比如说一个用户信息的JSON
文件, 第一条数据的phone_num
有可能是String
, 第二条数据虽说应该也是String
, 但是如果硬要指定为BigInt
, 也是有可能的
因为没有指定Schema
, 没有显式的强制的约束
有结构
-
虽说半结构化数据是没有显式指定
Schema
的, 也没有约束, 但是半结构化数据本身是有有隐式的结构的, 也就是数据自身可以描述自身
例如JSON
文件, 其中的某一条数据是有字段这个概念的, 每个字段也有类型的概念, 所以说JSON
是可以描述自身的, 也就是数据本身携带有元信息
Schema
-
-
-
Spark
的RDD
主要用于处理 非结构化数据 和 半结构化数据 -
SparkSQL
主要用于处理 结构化数据
-
-
-
SparkSQL
提供了更好的外部数据源读写支持-
因为大部分外部数据源是有结构化的, 需要在
RDD
之外有一个新的解决方案, 来整合这些结构化数据源
-
-
SparkSQL
提供了直接访问列的能力-
因为
SparkSQL
主要用做于处理结构化数据, 所以其提供的API
具有一些普通数据库的能力
-
-
SparkSQL
处理什么数据的问题?
SparkSQL
相较于
RDD
的优势在哪?
SparkSQL
适用于什么场景?
SparkSQL
适用于处理结构化数据的场景
-
SparkSQL
是一个即支持SQL
又支持命令式数据处理的工具 -
SparkSQL
的主要适用场景是处理结构化数据
2. SparkSQL 初体验
-
了解
SparkSQL
的API
由哪些部分组成
2.3. RDD 版本的 WordCount
val config = new SparkConf().setAppName("ip_ana").setMaster("local[6]")
val sc = new SparkContext(config)
sc.textFile("hdfs://node01:8020/dataset/wordcount.txt") .flatMap(_.split(" ")) .map((_, 1)) .reduceByKey(_ + _) .collect
-
RDD
版本的代码有一个非常明显的特点, 就是它所处理的数据是基本类型的, 在算子中对整个数据进行处理
2.2. 命令式 API 的入门案例
case class People(name: String, age: Int)
val spark: SparkSession = new sql.SparkSession.Builder()
.appName("hello")
.master("local[6]")
.getOrCreate()
import spark.implicits._
val peopleRDD: RDD[People] = spark.sparkContext.parallelize(Seq(People("zhangsan", 9), People("lisi", 15)))
val peopleDS: Dataset[People] = peopleRDD.toDS() val teenagers: Dataset[String] = peopleDS.where('age > 10) .where('age < 20) .select('name) .as[String] /* +----+ |name| +----+ |lisi| +----+ */ teenagers.show()
SparkSQL 中有一个新的入口点, 叫做 SparkSession | |
SparkSQL 中有一个新的类型叫做 Dataset | |
SparkSQL 有能力直接通过字段名访问数据集, 说明 SparkSQL 的 API 中是携带 Schema 信息的 |
2.2. SQL 版本 WordCount
val spark: SparkSession = new sql.SparkSession.Builder() .appName("hello") .master("local[6]") .getOrCreate() import spark.implicits._ val peopleRDD: RDD[People] = spark.sparkContext.parallelize(Seq(People("zhangsan", 9), People("lisi", 15))) val peopleDS: Dataset[People] = peopleRDD.toDS() peopleDS.createOrReplaceTempView("people") val teenagers: DataFrame = spark.sql("select name from people where age > 10 and age < 20") /* +----+ |name| +----+ |lisi| +----+ */ teenagers.show()
以往使用 SQL
肯定是要有一个表的, 在 Spark
中, 并不存在表的概念, 但是有一个近似的概念, 叫做 DataFrame
, 所以一般情况下要先通过 DataFrame
或者 Dataset
注册一张临时表, 然后使用 SQL
操作这张临时表
SparkSQL
提供了 SQL
和 命令式 API
两种不同的访问结构化数据的形式, 并且它们之间可以无缝的衔接
命令式 API
由一个叫做 Dataset
的组件提供, 其还有一个变形, 叫做 DataFrame
3. [扩展] Catalyst 优化器
-
理解
SparkSQL
和以RDD
为代表的SparkCore
最大的区别 -
理解优化器的运行原理和作用
3.1. RDD 和 SparkSQL 运行时的区别
-
-
大致运行步骤
-
先将
RDD
解析为由Stage
组成的DAG
, 后将Stage
转为Task
直接运行
问题
-
任务会按照代码所示运行, 依赖开发者的优化, 开发者的会在很大程度上影响运行效率
解决办法
-
创建一个组件, 帮助开发者修改和优化代码, 但是这在
RDD
上是无法实现的
为什么
-
-
-
RDD
没有Schema
信息 -
RDD
可以同时处理结构化和非结构化的数据
-
-
和
RDD
不同,SparkSQL
的Dataset
和SQL
并不是直接生成计划交给集群执行, 而是经过了一个叫做Catalyst
的优化器, 这个优化器能够自动帮助开发者优化代码也就是说, 在
SparkSQL
中, 开发者的代码即使不够优化, 也会被优化为相对较好的形式去执行-
为什么
-
首先,
SparkSQL
大部分情况用于处理结构化数据和半结构化数据, 所以SparkSQL
可以获知数据的Schema
, 从而根据其Schema
来进行优化
SparkSQL
提供了这种能力? -
RDD
的运行流程
RDD
无法自我优化?
SparkSQL
提供了什么?
3.2. Catalyst
为了解决过多依赖
|
-
Step 1 : 解析
-
-
-
score.id → id#1#L
为score.id
生成id
为 1, 类型是Long
-
score.math_score → math_score#2#L
为score.math_score
生成id
为 2, 类型为Long
-
people.id → id#3#L
为people.id
生成id
为 3, 类型为Long
-
people.age → age#4#L
为people.age
生成id
为 4, 类型为Long
Step 3 : 对已经加入元数据的
-
-
-
谓词下推
Predicate Pushdown
, 将Filter
这种可以减小数据集的操作下推, 放在Scan
的位置, 这样可以减少操作时候的数据量
-
列值裁剪
Column Pruning
, 在谓词下推后,people
表之上的操作只用到了id
列, 所以可以把其它列裁剪掉, 这样可以减少处理的数据量, 从而优化处理速度
-
还有其余很多优化点, 大概一共有一二百种, 随着
SparkSQL
的发展, 还会越来越多, 感兴趣的同学可以继续通过源码了解, 源码在org.apache.spark.sql.catalyst.optimizer.Optimizer
Step 4 : 上面的过程生成的
-
-
-
在生成`物理计划`的时候, 会经过`成本模型`对整棵树再次执行优化, 选择一个更好的计划
-
在生成`物理计划`以后, 因为考虑到性能, 所以会使用代码生成, 在机器中运行
-
SQL
, 并且生成
AST
(抽象语法树)
AST
中加入元数据信息, 做这一步主要是为了一些优化, 例如
col = col
这样的条件, 下图是一个简略图, 便于理解
AST
, 输入优化器, 进行优化, 从两种常见的优化开始, 简单介绍
AST
其实最终还没办法直接运行, 这个
AST
叫做
逻辑计划
, 结束后, 需要生成
物理计划
, 从而生成
RDD
来运行
queryExecution 方法查看逻辑执行计划, 使用
explain 方法查看物理执行计划
Spark WebUI 进行查看
|
SparkSQL
和 RDD
不同的主要点是在于其所操作的数据是结构化的, 提供了对数据更强的感知和分析能力, 能够对代码进行更深层的优化, 而这种能力是由一个叫做 Catalyst
的优化器所提供的
Catalyst
的主要运作原理是分为三步, 先对 SQL
或者 Dataset
的代码解析, 生成逻辑计划, 后对逻辑计划进行优化, 再生成物理计划, 最后生成代码到集群中以 RDD
的形式运行
4. Dataset 的特点
-
理解
Dataset
是什么 -
理解
Dataset
的特性
- 即使使用
- 可以获取
Dataset
是什么?
Dataset
的命令式
API
, 执行计划也依然会被优化
Dataset
的底层是什么?
Dataset
对应的
RDD
表示
-
Dataset
是一个新的Spark
组件, 其底层还是RDD
-
Dataset
提供了访问对象中某个特定字段的能力, 不用像RDD
一样每次都要针对整个对象做操作 -
Dataset
和RDD
不同, 如果想把Dataset[T]
转为RDD[T]
, 则需要对Dataset
底层的InternalRow
做转换, 是一个比价重量级的操作
5. DataFrame 的作用和常见操作
-
理解
DataFrame
是什么 -
理解
DataFrame
的常见操作
- 通过隐式转换创建
- 通过外部集合创建
- 在
- 使用
DataFrame
是什么?
DataFrame
DataFrame
DataFrame
上可以使用的常规操作
SQL
操作
DataFrame
-
DataFrame
是一个类似于关系型数据库表的函数式组件 -
DataFrame
一般处理结构化数据和半结构化数据 -
DataFrame
具有数据对象的 Schema 信息 -
可以使用命令式的
API
操作DataFrame
, 同时也可以使用SQL
操作DataFrame
-
DataFrame
可以由一个已经存在的集合直接创建, 也可以读取外部的数据源来创建
6. Dataset 和 DataFrame 的异同
-
理解
Dataset
和DataFrame
之间的关系
-
val spark: SparkSession = new sql.SparkSession.Builder() .appName("hello") .master("local[6]") .getOrCreate() import spark.implicits._ val df: DataFrame = Seq(People("zhangsan", 15), People("lisi", 15)).toDF() val ds_fdf: Dataset[People] = df.as[People] val ds: Dataset[People] = Seq(People("zhangsan", 15), People("lisi", 15)).toDS() val df_fds: DataFrame = ds.toDF()
DataFrame
就是
Dataset
DataFrame
和
Dataset
所表达的语义不同
Row
是什么?
DataFrame
和
Dataset
之间可以非常简单的相互转换
-
DataFrame
就是Dataset
, 他们的方式是一样的, 也都支持API
和SQL
两种操作方式 -
DataFrame
只能通过表达式的形式, 或者列的形式来访问数据, 只有Dataset
支持针对于整个对象的操作 -
DataFrame
中的数据表示为Row
, 是一个行的概念
7. 数据读写
-
理解外部数据源的访问框架
-
掌握常见的数据源读写方式
7.1. 初识 DataFrameReader
-
理解
DataFrameReader
的整体结构和组成
SparkSQL
的一个非常重要的目标就是完善数据读取, 所以 SparkSQL
中增加了一个新的框架, 专门用于读取外部数据源, 叫做 DataFrameReader
import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.DataFrameReader
val spark: SparkSession = ... val reader: DataFrameReader = spark.read
DataFrameReader
由如下几个组件组成
组件 | 解释 |
---|---|
| 结构信息, 因为 |
| 连接外部数据源的参数, 例如 |
| 外部数据源的格式, 例如 |
DataFrameReader
有两种访问方式, 一种是使用 load
方法加载, 使用 format
指定加载格式, 还有一种是使用封装方法, 类似 csv
, json
, jdbc
等
import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.DataFrame
val spark: SparkSession = ... // 使用 load 方法 val fromLoad: DataFrame = spark .read .format("csv") .option("header", true) .option("inferSchema", true) .load("dataset/BeijingPM20100101_20151231.csv") // Using format-specific load operator val fromCSV: DataFrame = spark .read .option("header", true) .option("inferSchema", true) .csv("dataset/BeijingPM20100101_20151231.csv")
但是其实这两种方式本质上一样, 因为类似 csv
这样的方式只是 load
的封装
如果使用 也就是说, |
-
使用
spark.read
可以获取 SparkSQL 中的外部数据源访问框架DataFrameReader
-
DataFrameReader
有三个组件format
,schema
,option
-
DataFrameReader
有两种使用方式, 一种是使用load
加format
指定格式, 还有一种是使用封装方法csv
,json
等
7.2. 初识 DataFrameWriter
-
理解
DataFrameWriter
的结构
对于 ETL
来说, 数据保存和数据读取一样重要, 所以 SparkSQL
中增加了一个新的数据写入框架, 叫做 DataFrameWriter
val spark: SparkSession = ...
val df = spark.read
.option("header", true) .csv("dataset/BeijingPM20100101_20151231.csv") val writer: DataFrameWriter[Row] = df.write
DataFrameWriter
中由如下几个部分组成
组件 | 解释 |
---|---|
| 写入目标, 文件格式等, 通过 |
| 写入模式, 例如一张表已经存在, 如果通过 |
| 外部参数, 例如 |
| 类似 |
| 类似 |
| 用于排序的列, 通过 |
mode
指定了写入模式, 例如覆盖原数据集, 或者向原数据集合中尾部添加等
Scala 对象表示 | 字符串表示 | 解释 |
---|---|---|
|
| 将 |
|
| 将 |
|
| 将 |
|
| 将 |
DataFrameWriter
也有两种使用方式, 一种是使用 format
配合 save
, 还有一种是使用封装方法, 例如 csv
, json
, saveAsTable
等
val spark: SparkSession = ...
val df = spark.read
.option("header", true) .csv("dataset/BeijingPM20100101_20151231.csv") // 使用 save 保存, 使用 format 设置文件格式 df.write.format("json").save("dataset/beijingPM") // 使用 json 保存, 因为方法是 json, 所以隐含的 format 是 json df.write.json("dataset/beijingPM1")
默认没有指定 |
-
类似
DataFrameReader
,Writer
中也有format
,options
, 另外schema
是包含在DataFrame
中的 -
DataFrameWriter
中还有一个很重要的概念叫做mode
, 指定写入模式, 如果目标集合已经存在时的行为 -
DataFrameWriter
可以将数据保存到Hive
表中, 所以也可以指定分区和分桶信息
7.3. 读写 Parquet 格式文件
-
理解
Spark
读写Parquet
文件的语法 -
理解
Spark
读写Parquet
文件的时候对于分区的处理
-
什么时候会用到
- 使用代码读写
- 写入
Parquet
?
Parquet
文件
Parquet
的时候可以指定分区
这个地方指的分区是类似 |
-
分区发现
配置 | 默认值 | 含义 |
---|---|---|
|
| 一些其他 |
|
| 一些其他 |
|
| 打开 Parquet 元数据的缓存, 可以加快查询静态数据 |
|
| 压缩方式, 可选 |
|
| 当为 true 时, Parquet 数据源会合并从所有数据文件收集的 Schemas 和数据, 因为这个操作开销比较大, 所以默认关闭 |
|
| 如果为 |
-
Spark
不指定format
的时候默认就是按照Parquet
的格式解析文件 -
Spark
在读取Parquet
文件的时候会自动的发现Parquet
的分区和分区字段 -
Spark
在写入Parquet
文件的时候如果设置了分区字段, 会自动的按照分区存储
7.4. 读写 JSON 格式文件
-
理解
JSON
的使用场景 -
能够使用
Spark
读取处理JSON
格式文件
-
什么时候会用到
- 读写
JSON
?
JSON
文件
Spark
可以从一个保存了
JSON
格式字符串的
Dataset[String]
中读取
JSON
信息, 转为
DataFrame
-
JSON
通常用于系统间的交互,Spark
经常要读取JSON
格式文件, 处理, 放在另外一处 -
使用
DataFrameReader
和DataFrameWriter
可以轻易的读取和写入JSON
, 并且会自动处理数据类型信息
7.5. 访问 Hive
-
整合
SparkSQL
和Hive
, 使用Hive
的MetaStore
元信息库 -
使用
SparkSQL
查询Hive
表 -
案例, 使用常见
HiveSQL
-
写入内容到
Hive
表
7.5.1. SparkSQL 整合 Hive
-
开启
Hive
的MetaStore
独立进程 -
整合
SparkSQL
和Hive
的MetaStore
和一个文件格式不同, Hive
是一个外部的数据存储和查询引擎, 所以如果 Spark
要访问 Hive
的话, 就需要先整合 Hive
-
整合什么 ?
- 为什么要开启
Hive
的
MetaStore
Hive
开启
MetaStore
SparkSQL
整合
Hive
的
MetaStore
如果不希望通过拷贝文件的方式整合 Hive, 也可以在 SparkSession 启动的时候, 通过指定 Hive 的 MetaStore 的位置来访问, 但是更推荐整合的方式 |
7.5.2. 访问 Hive 表
-
在
Hive
中创建表 -
使用
SparkSQL
访问Hive
中已经存在的表 -
使用
SparkSQL
创建Hive
表 -
使用
SparkSQL
修改Hive
表中的数据
-
在
- 通过
- 通过
- 使用
Hive
中创建表
SparkSQL
查询
Hive
的表
SparkSQL
创建
Hive
表
SparkSQL
处理数据并保存进 Hive 表
7.6. JDBC
-
通过
SQL
操作MySQL
的表 -
将数据写入
MySQL
的表中
-
准备
- 使用
- 运行程序
- 从
MySQL
环境
SparkSQL
向
MySQL
中写入数据
MySQL
中读取数据
转载于:https://www.cnblogs.com/mediocreWorld/p/11614461.html
最后
以上就是忐忑小鸽子为你收集整理的Update:sparksql:第1节 SparkSQL_使用场景_优化器_Dataset的全部内容,希望文章能够帮你解决Update:sparksql:第1节 SparkSQL_使用场景_优化器_Dataset所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复