版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

本文链接:

Flink入门程序异常,记录一下跟大家分享。

SLF4J: Failed to load class "org.slf4j.impl.StaticLoggerBinder".
SLF4J: Defaulting to no-operation (NOP) logger implementation
SLF4J: See http://www.slf4j.org/codes.html#StaticLoggerBinder for further details.
org.apache.flink.runtime.client.JobExecutionException: java.lang.NoSuchMethodError: org.apache.kafka.clients.consumer.KafkaConsumer.assign(Ljava/util/List;)V
    at org.apache.flink.runtime.minicluster.MiniCluster.executeJobBlocking(MiniCluster.java:623)
    at org.apache.flink.streaming.api.environment.LocalStreamEnvironment.execute(LocalStreamEnvironment.java:123)
    at org.apache.flink.streaming.api.environment.StreamExecutionEnvironment.execute(StreamExecutionEnvironment.java:1511)
    at Streaming.ReadFromKafka.main(ReadFromKafka.java:41)
Caused by: java.lang.NoSuchMethodError: org.apache.kafka.clients.consumer.KafkaConsumer.assign(Ljava/util/List;)V
    at org.apache.flink.streaming.connectors.kafka.internal.KafkaConsumerCallBridge.assignPartitions(KafkaConsumerCallBridge.java:42)
    at org.apache.flink.streaming.connectors.kafka.internal.KafkaConsumerThread.reassignPartitions(KafkaConsumerThread.java:405)
    at org.apache.flink.streaming.connectors.kafka.internal.KafkaConsumerThread.run(KafkaConsumerThread.java:243)

当各位遇到这个错误的时候,相信你们也是写的Flink的入门程序,读取或者写入kafka。网上的资料少之甚少,经过一番寻找还是找到了一点东西。希望大家以后可以少走弯路。

【尖叫提示】:这是入门级别的一个大坑。

<dependency>

<groupId>org.apache.kafka</groupId>

<artifactId>kafka-clients</artifactId>

<version>0.9.0.1</version>

</dependency>

这个kafka-clients的版本一定要写这个。

如果写下面这个,则会报错:具体原因应该是1.0.0的不支持了。

org.apache.flink.runtime.client.JobExecutionException: java.lang.NoSuchMethodError: org.apache.kafka.clients.consumer.KafkaConsumer.assign(Ljava/util/List;)V

<dependency>

<groupId>org.apache.flink</groupId>

<artifactId>flink-clients_2.11</artifactId>

<version>1.6.0</version>

</dependency>

具体的代码如下:

  1. package Streaming;
  2. import org.apache.flink.api.common.functions.MapFunction;
  3. import org.apache.flink.api.common.serialization.SimpleStringSchema;
  4. import org.apache.flink.streaming.api.datastream.DataStream;
  5. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
  6. import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer09;
  7. import java.util.Properties;
  8. /**
  9. * Created with IntelliJ IDEA.
  10. * User: @ziyu freedomziyua@gmail.com
  11. * Date: 2018-09-10
  12. * Time: 11:25
  13. * Description: kafka.Streaming.ReadFromKafka
  14. */
  15. public class ReadFromKafka {
  16. public static void main(String args[]) throws Exception{
  17. StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
  18. Properties properties = new Properties();
  19. properties.setProperty("bootstrap.servers", "192.168.2.41:9092");
  20. properties.setProperty("group.id", "test");
  21. DataStream<String> stream = env
  22. .addSource(new FlinkKafkaConsumer09("flink-demo", new SimpleStringSchema(), properties));
  23. stream.map(new MapFunction<String, String>() {
  24. private static final long serialVersionUID = -6867736771747690202L;
  25. public String map(String value) throws Exception {
  26. return "Stream Value: " + value;
  27. }
  28. }).print();
  29. try {
  30. env.execute();
  31. } catch (Exception e) {
  32. e.printStackTrace();
  33. }
  34. }
  35. }

如果运行的话,只要环境修改好了,然后引入Flink连接kafka 的依赖

  1. <properties>
  2. <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
  3. <flink.version>1.6.0</flink.version>
  4. </properties>
  5. <dependencies>
  6. <dependency>
  7. <groupId>org.apache.flink</groupId>
  8. <artifactId>flink-java</artifactId>
  9. <version>${flink.version}</version>
  10. </dependency>
  11. <dependency>
  12. <groupId>org.apache.flink</groupId>
  13. <artifactId>flink-streaming-java_2.11</artifactId>
  14. <version>${flink.version}</version>
  15. </dependency>
  16. <dependency>
  17. <groupId>org.apache.kafka</groupId>
  18. <artifactId>kafka-clients</artifactId>
  19. <version>0.9.0.1</version>
  20. </dependency>
  21. <!-- Flink Connector Kafka | exclude Kafka implementation to use MapR -->
  22. <dependency>
  23. <groupId>org.apache.flink</groupId>
  24. <artifactId>flink-connector-kafka-0.10_2.11</artifactId>
  25. <version>${flink.version}</version>
  26. </dependency>
  27. </dependencies>

【运行】

1.kafka创建flink-demo 的主题

2.启动kafka 的生产者和消费者,观察时候可以互通

3.如果上述都没问题,启动Flink

4.运行本地程序,观察输出即可

以上为初学Flink遇到的一个比较棘手的问题,希望大家少走弯路。

java.lang.NoSuchMethodError: org.apache.kafka.clients.consumer.KafkaConsumer.assign(Ljava/util/List相关推荐

  1. spark2+kafka报错:java.lang.NoSuchMethodError:org.apache.kafka.clients.consumer.KafkaConsumer.subscribe

    spark读取kafka数据 // Create DataFrame representing the stream of input lines from kafkaval lines = spar ...

  2. 【Flink】flink消费kafka报错 KafkaConsumer.assign Ljava/util/List

    文章目录 1.概述 1.概述 flink消费kafka上数据时报错: Caused by: java.lang.NoSuchMethodError: org.apache.kafka.clients. ...

  3. java.io.NotSerializableException: org.apache.kafka.clients.consumer.ConsumerRecord

    java消费kafka数据时报错 ERROR [Executor task launch worker for task 90] - Exception in task 0.0 in stage 54 ...

  4. 【Flink实战系列】Lorg/apache/flink/kafka/shaded/org/apache/kafka/clients/consumer/ConsumerRecord;)Ljava/

    java.lang.AbstractMethodError: Method flink/stream/deserialization/PoJoDeserializationSchema.deseria ...

  5. java.lang.NoSuchMethodError: org.apache.flink.table.api.TableColumn.isGenerated()Z

    完整报错如下: select * from dim_behavior; [ERROR] Could not execute SQL statement. Reason: java.lang.NoSuc ...

  6. hive执行drop卡死一例:java.lang.NoSuchMethodError: org.apache.commons.lang3.StringUtils.isAnyBlank

    环境: 组件 版本 Hadoop 3.1.2 Hive 2.3.4 故障复现操作: hive中尝试drop table卡死,然后去hadoop的yarn界面发现如下报错 完整报错: org.apach ...

  7. ant 时 --java.lang.NoSuchMethodError: org.apache.tools.ant.util.FileUtils.getFileUtils 解决方法

    使用ant 时, 有可能出现java.lang.NoSuchMethodError: org.apache.tools.ant.util.FileUtils.getFileUtils的错误 但是直接命 ...

  8. 异常:java.lang.NoSuchMethodError: org.apache.poi.ss.usermodel.Workbook.getCellStyleAt

    异常:java.lang.NoSuchMethodError: org.apache.poi.ss.usermodel.Workbook.getCellStyleAt 参考文章: (1)异常:java ...

  9. 【记一次kafka报org.apache.kafka.clients.consumer.CommitFailedException异常处理】

    项目场景: 项目中,使用到了kafka作为消息中间件,项目作为消费端,消费消息并进行业务处理 问题描述 在实际应用的过程中,发现偶尔但是一直存在的,有消费数据报:org.apache.kafka.cl ...

最新文章

  1. g_thread_init
  2. 新浪微博客户端(eoe)
  3. leetcode 43. Multiply Strings | 43. 字符串相乘(Java)
  4. Android 递归删除文件和文件夹
  5. 大学python笔记整理_python 笔记整理
  6. PHP购物网站(含购物车、全部源码、数据库设计表及其源码)
  7. Chrome 插件集推荐
  8. tms sparkle创建server以及module实例
  9. 一年级计算c语言编程,用C语言switch语句做一年级算术题。
  10. 大话主流分布式文件系统!
  11. 计算机瑞士留学经验,瑞士留学生活分享
  12. 休问情怀谁得似——冰雪小五台苦旅记(十完结篇)
  13. 计算机编程专业有哪些好的大学?
  14. 【SpringDataJPA从入门到精通】02-JPA API
  15. glibc2.29+的off by null利用
  16. 任务七、名片管理系统
  17. oracle建库sid大写,oracle解除账号锁定ORA-01078错误举例:SID的大小写错误
  18. 在Word2013中同时插入上标和下标记
  19. 获取敌人在屏幕的方向并显示箭头
  20. Ubuntu下如何用命令行运行deb安装包

热门文章

  1. 关于计算机经历兼职的英文作文,大学生的兼职工作英语作文
  2. 驻点以及二阶导对驻点的判断
  3. 湖南大学计算机技术大纲,湖南大学2018年现代教育技术考研大纲
  4. 数据库优化----结构优化
  5. KEIL工程.c文件上面有‘*’和‘-’标志
  6. 美菜食材供应不断链 助力防疫保供
  7. 他的爬虫软件助3000企业抓取数据 最高日采8000万条 营收50万元
  8. 织梦cms制作xml网站地图
  9. 静态分析 第一课 静态分析介绍
  10. jquery 滚动条事件