import kafka.serializer.StringDecoder
import org.apache.kudu.spark.kudu.KuduContext
import org.apache.log4j.Logger
import org.apache.spark.sql.SQLContext
import org.apache.spark.streaming.kafka.KafkaUtils
import org.apache.spark.streaming.{Seconds, StreamingContext}
import org.apache.spark.{SparkConf, SparkContext, sql}
import we.com.config.{Constants, DBConstants}
import we.com.util.ImpalaUtil
import we.com.util.TypeTransform._
/**
* @author yangxin_ryan
* date 2018-07-23
*/
object AccountToKudu {
private val appName = getClass.getSimpleName.replace("$", "")
private val accountRegex = DBConstants.ACCOUNT_REGEX
private val LOG = Logger.getLogger(appName)
def run(): Unit ={
val brokers = Constants.KAFKA_BROKERS
val topics = Constants.TOPIC_ACCOUNT
val kuduMaster = Constants.KUDU_MASTER
val kuduConifg = Map("kudu.master" -> Constants.KUDU_MASTER,
最后
以上就是殷勤方盒最近收集整理的关于scala实现 SparkStreaming 实时处理日志写入Kudu的全部内容,更多相关scala实现内容请搜索靠谱客的其他文章。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复