我是靠谱客的博主 儒雅火车,这篇文章主要介绍Flink读取Kafka数据,进行流处理APi操作(wordcount,分流,合流)一、pom文件二、将Kafka作为数据源,通过Flink进行词频统计 关键词:keyBy() reduce()三、通过split和select进行分流四、通过 connect map和union 进行合流,现在分享给大家,希望可以做个参考。

文章目录

  • 一、pom文件
    • Finl跟Kafka结合的包
    • 將json轉換成對象的依賴
    • 剩下做需要的包,我在文章: https://blog.csdn.net/qq_44472134/article/details/104193662 中的《API操作》中提过,不知道的可以到这个网址上看看
  • 二、将Kafka作为数据源,通过Flink进行词频统计 关键词:keyBy() reduce()
  • 三、通过split和select进行分流
  • 四、通过 connect map和union 进行合流

一、pom文件

Finl跟Kafka结合的包

 <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-kafka-0.11_2.11</artifactId>    <!--kafka版本是0.11   scala版本是2.11-->
            <version>1.7.0</version>                                                  <!--flink版本是1.7.0-->
        </dependency>

將json轉換成對象的依賴

<dependency>
            <groupId>com.alibaba</groupId>
            <artifactId>fastjson</artifactId>
            <version>1.2.47</version>
        </dependency>

剩下做需要的包,我在文章: https://blog.cs

最后

以上就是儒雅火车最近收集整理的关于Flink读取Kafka数据,进行流处理APi操作(wordcount,分流,合流)一、pom文件二、将Kafka作为数据源,通过Flink进行词频统计 关键词:keyBy() reduce()三、通过split和select进行分流四、通过 connect map和union 进行合流的全部内容,更多相关Flink读取Kafka数据,进行流处理APi操作(wordcount,分流,合流)一、pom文件二、将Kafka作为数据源,通过Flink进行词频统计内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(57)

评论列表共有 0 条评论

立即
投稿
返回
顶部