我是靠谱客的博主 殷勤方盒,这篇文章主要介绍scala实现 SparkStreaming 实时处理日志写入Kudu,现在分享给大家,希望可以做个参考。

import kafka.serializer.StringDecoder
import org.apache.kudu.spark.kudu.KuduContext
import org.apache.log4j.Logger
import org.apache.spark.sql.SQLContext
import org.apache.spark.streaming.kafka.KafkaUtils
import org.apache.spark.streaming.{Seconds, StreamingContext}
import org.apache.spark.{SparkConf, SparkContext, sql}
import we.com.config.{Constants, DBConstants}
import we.com.util.ImpalaUtil
import we.com.util.TypeTransform._

/**
  * @author yangxin_ryan
  * date 2018-07-23
  */
object AccountToKudu {
  private val appName = getClass.getSimpleName.replace("$", "")
  private val accountRegex = DBConstants.ACCOUNT_REGEX
  private val LOG = Logger.getLogger(appName)

  def run(): Unit ={
    val brokers = Constants.KAFKA_BROKERS
    val topics = Constants.TOPIC_ACCOUNT
    val kuduMaster = Constants.KUDU_MASTER
    val kuduConifg = Map("kudu.master" -> Constants.KUDU_MASTER, 

最后

以上就是殷勤方盒最近收集整理的关于scala实现 SparkStreaming 实时处理日志写入Kudu的全部内容,更多相关scala实现内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(142)

评论列表共有 0 条评论

立即
投稿
返回
顶部