我是靠谱客的博主 殷勤方盒,最近开发中收集的这篇文章主要介绍scala实现 SparkStreaming 实时处理日志写入Kudu,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

import kafka.serializer.StringDecoder
import org.apache.kudu.spark.kudu.KuduContext
import org.apache.log4j.Logger
import org.apache.spark.sql.SQLContext
import org.apache.spark.streaming.kafka.KafkaUtils
import org.apache.spark.streaming.{Seconds, StreamingContext}
import org.apache.spark.{SparkConf, SparkContext, sql}
import we.com.config.{Constants, DBConstants}
import we.com.util.ImpalaUtil
import we.com.util.TypeTransform._

/**
  * @author yangxin_ryan
  * date 2018-07-23
  */
object AccountToKudu {
  private val appName = getClass.getSimpleName.replace("$", "")
  private val accountRegex = DBConstants.ACCOUNT_REGEX
  private val LOG = Logger.getLogger(appName)

  def run(): Unit ={
    val brokers = Constants.KAFKA_BROKERS
    val topics = Constants.TOPIC_ACCOUNT
    val kuduMaster = Constants.KUDU_MASTER
    val kuduConifg = Map("kudu.master" -> Constants.KUDU_MASTER, 

最后

以上就是殷勤方盒为你收集整理的scala实现 SparkStreaming 实时处理日志写入Kudu的全部内容,希望文章能够帮你解决scala实现 SparkStreaming 实时处理日志写入Kudu所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(44)

评论列表共有 0 条评论

立即
投稿
返回
顶部