我是靠谱客的博主 贤惠春天,最近开发中收集的这篇文章主要介绍kafka数据 落盘_Flume消费Kafka数据落盘至HDFS的实践,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

需求背景

我司目前的日志采集是由 Structured Streaming 程序消费数据Kafka中的topic数据,经过ETL后写入HIVE表,但是该类日志程序占用约7个G的内存,这对于我们集群的压力来讲是比较大的(10台32g)。

组件调研

当前市面上的日志采集框架还是不少的

- Apache Flume

- Fluentd

- Logstash

- Chukwa

- Scribe

- Splunk Forwarder

经过分析后,我们决定采用flume作为消费者来消费Kafka中的数据。(flume对Kafka的支持还是不错的)

flume 经典的 source chnannel sink 组件

组件介绍

Agent是一个JVM进程,它以事件的形式将数据从源头送至目的。

Agent主要有3个部分组成,Source、Channel、Sink。

Source是负责接收数据到Flume Agent的组件。Source组件可以处理各种类型、各种格式的日志数据,包括avro、thrift、exec、jms、spooling directory、netcat、sequence generator、syslog、http、legacy。

Sink不断地轮询Channel中的事件且批量地移除它们,并将这些事件批量写入到存储或索引系统、或者被发送到另一个Flume Agent。

Sink组件目的地包括hdfs、logger、avro、thrift、ipc、file、HBase、solr、自定义。

Channel是位于Source和Sink之间的缓冲区。因此,Channel允许Source和Sink运作在不同的速率上。Channel是线程安全的,可以同时处理几个Source的写入操作和几个Sink的读取操作。

Flume自带两种Channel:Memory Channel和File Channel。

Memory Channel是内存中的队列。Memory Channel在不需要关心数据丢失的情景下适用。如果需要关心数据丢失,那么Memory Channel就不应该使用,因为程序死亡、机器宕机或者重启都会导致数据丢失。

File Channel将所有事件写到磁盘。因此在程序关闭或机器宕机的情况下不会丢失数据。

传输单元,Flume数据传输的基本单元,以Event的形式将数据从源头送至目的地。Event由Header和Body两部分组成,Header用来存放该event的一些属性,为K-V结构,Body用来存放该条数据,形式为字节数组。

flume测试

安装

需要注意的是 flume在往hdfs导数据时,需要将hadoop相关jar包 复制至flume安装目录中的lib包下。并确认Hadoop环境和Java环境配置正常 (检查/etc/profile.d/my_env.sh)

```

#JAVA_HOME

export JAVA_HOME=/opt/module/jdk1.8.0_212

export PATH=$PATH:$JAVA_HOME/bin

##HADOOP_HOME

export HADOOP_HOME=/opt/module/hadoop-2.6.2

export PATH=$PATH:$HADOOP_HOME/bin

export PATH=$PATH:$HADOOP_HOME/sbin

```

注意 :

如果你的Hadoop为3.1.x 版本

删除

flume/lib/guava-11.0.2.jar

以兼容Hadoop

案例实操

上图为flume 官方案例式样

启动flume 实例需要新建一个example(自定义名字).conf文件

官方的快速上手示例,有兴趣的同学可以自己动手尝试

flume实战

source组件选型之Kafka Source

channel组件选型之File Channel

sink组件选型之HDFS Sink

在了解各组件的基本配置说明之后

在flume的目录内 新建job文件夹

```

mkdir job

cd job/

vi Kafka-flume-hdfs.conf

```

配置文件内容:

```

## 组件

a1.sources=r1

a1.channels=c1

a1.sinks=k1

## source1

# source 类型

a1.sources.r1.type = org.apache.flume.source.kafka.KafkaSource

a1.sources.r1.batchSize = 5000

a1.sources.r1.batchDurationMillis = 2000

# Kafka 地址

a1.sources.r1.kafka.bootstrap.servers = xxx01:9092,xxx02:9092

# Kafka 主题

a1.sources.r1.kafka.topics=topic_test,topic_test2,topic_test3

a1.sources.r1.kafka.consumer.group.id = flume_kafka2hdfs

## channel1

# channel 类型

a1.channels.c1.type = file

a1.channels.c1.maxFileSize = 2146435071

a1.channels.c1.capacity = 1000000

a1.channels.c1.keep-alive = 6

a1.channels.c1.checkpointDir = /opt/apache-flume-1.9.0-bin/datas/flumecheckpointDir1

a1.channels.c1.dataDirs = /opt/apache-flume-1.9.0-bin/datas/flumedataDir1

## sink1

# sink 类型

a1.sinks.k1.type = hdfs

# 数据文件在hdfs的路径

a1.sinks.k1.hdfs.path = /tmp/flume/%{topic}/%Y-%m-%d

a1.sinks.k1.hdfs.filePrefix = log-

a1.sinks.k1.hdfs.round = false

# 数据3600s滚动一次

a1.sinks.k1.hdfs.rollInterval = 3600

# 数据达到128M 滚动一次

a1.sinks.k1.hdfs.rollSize = 134217728

a1.sinks.k1.hdfs.rollCount = 0

## 控制输出文件是原生文件。(根据需要可以配置压缩)

a1.sinks.k1.hdfs.fileType = DataStream

a1.sinks.k1.hdfs.writeFormat=Text

## 拼装

a1.sources.r1.channels = c1

a1.sinks.k1.channel= c1

```

启动 flume实例

```

bin/flume-ng agent --conf conf --conf-file job/Kafka-flume-hdfs.conf --name a1 -Dflume.root.logger=INFO.console

```

相应的在Kafka 客户端启动三个生产者

```

bin/kafka-console-producer.sh

--broker-test xxx01:9092 --topic test

bin/kafka-console-producer.sh

--broker-test xxx01:9092 --topic test2

bin/kafka-console-producer.sh

--broker-test xxx01:9092 --topic test3

```

进行数据测试

正常接收数据。

Flume消费Kafka数据落盘至HDFS任务完成

经过监控得知内存消耗为500-700m ,相比较spark程序性能优化 7 倍。

优化任务完成。

最后推荐一位朋友的公众号,他会在业余时间输出一些Java相关的知识。

最后

以上就是贤惠春天为你收集整理的kafka数据 落盘_Flume消费Kafka数据落盘至HDFS的实践的全部内容,希望文章能够帮你解决kafka数据 落盘_Flume消费Kafka数据落盘至HDFS的实践所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(53)

评论列表共有 0 条评论

立即
投稿
返回
顶部