概述
Spark手动提交偏移量
//strem是读取的数据流,可以是kafka数据
stream.foreachRDD(
{
rdd =>
//对rdd的操作
rdd.flatMap(s => {
var s1 = s.value().replace(",", "")
var s2 = s1.replace(".", "")
var s3 = s2.replace("?", "")
s3.split(" ")
})
//每次操作完一次rdd就提交一次偏移量:
//获取rdd中offset相关的信息:offsetRange里面就包含该批次各个分区的offset信息。
var offsetRange=rdd.asInstanceOf[HasOffsetRanges].offsetRanges
//提交偏移量
stream.asInstanceOf[CanCommitOffsets].commitAsync(offsetRange)
}
)
最后
以上就是难过月亮为你收集整理的Spark手动提交偏移量的全部内容,希望文章能够帮你解决Spark手动提交偏移量所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复