我是靠谱客的博主 鲜艳香氛,最近开发中收集的这篇文章主要介绍Spark定制班第29课:深入理解Spark 2.x中的Structured Streaming内幕,觉得挺不错的,现在分享给大家,希望可以做个参考。
概述
本期内容:
1. 新型的Spark Streaming思维
2. Structured Streaming内幕
Spark 2.0 仍有bug,不适合于生成环境。只用于测试。
Spark 2.X提出了continuous application(连续的应用程序)的概念,非常重大。
如图例所示,数据通过Kafka流进来,经过ETL,
SS把数据看成一张表。一张没有边际的表、
Eventtime,事件触发器,以后再展开来分析。通过JDBC访问数据。
多个query并行运行。
官方说2.0的正式版本并没有在线机器学习功能了。
快速的、容错的、exactly-once,有状态的流处理。不用清楚底层的流是怎么回事。
delta input: 增量更新。有更新的部分时,才更新。
StructureStreaming基于DataSet、DataFrame,没有涉及DStream了。没有数据收集过来再处理这样的概念,数据就一直在了。
上例中将两个dataset进行join操作,更符合RDD的API,不需要foreachRDD后门了。
API级别的很大优势。
默认情况下,DataSet、DataFrame是static bounded data,流处理是streaming unbounded data。API把两者融合了。
可以认为Planner是一个翻译器或路由器,基于DataFrame和DataSet代码来决定是否走Spark SQL的UnResult、Result Logic Plan、Optimized Logic Plan等,编码者不需要关心这些东西了。
Spark会走向完全实时的时代。所有的机器学习、图计算都应该在流数据上进行计算。
最后
以上就是鲜艳香氛为你收集整理的Spark定制班第29课:深入理解Spark 2.x中的Structured Streaming内幕的全部内容,希望文章能够帮你解决Spark定制班第29课:深入理解Spark 2.x中的Structured Streaming内幕所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复