昨天晚上Flink1.11出了,这次改动很多,我只关心hive这一部分。

目前尝试了几个小时用代码读取hive,安装官网的文档,没成功,先蹭个热点,记录下。

先贴一下依赖吧:

注意:反正各种报错,看社区有说需要flink-clients.jar  手动去下载导入依赖

<dependencies><dependency><groupId>org.apache.flink</groupId><artifactId>flink-connector-kafka_2.11</artifactId><version>${flink.version}</version><scope>provided</scope></dependency><dependency><groupId>org.apache.flink</groupId><artifactId>flink-table-api-java</artifactId><version>${flink.version}</version><scope>provided</scope></dependency><dependency><groupId>org.apache.flink</groupId><artifactId>flink-table-api-java-bridge_2.11</artifactId><version>${flink.version}</version><scope>provided</scope></dependency><dependency><groupId>org.apache.flink</groupId><artifactId>flink-table-planner-blink_2.11</artifactId><version>${flink.version}</version><scope>provided</scope></dependency><dependency><groupId>org.apache.flink</groupId><artifactId>flink-table-planner_2.11</artifactId><version>${flink.version}</version><scope>provided</scope></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-common</artifactId><version>2.6.0-cdh5.16.1</version><scope>provided</scope></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-hdfs</artifactId><version>2.6.0-cdh5.16.1</version><scope>provided</scope></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-client</artifactId><version>2.6.0-cdh5.16.1</version><scope>provided</scope></dependency><!--hive依赖--><dependency><groupId>org.apache.flink</groupId><artifactId>flink-connector-hive_2.11</artifactId><version>${flink.version}</version><scope>provided</scope></dependency><dependency><groupId>org.apache.hive</groupId><artifactId>hive-exec</artifactId><version>1.1.0</version><scope>provided</scope></dependency></dependencies>

这里运行不报错,可是API变了,不知道怎么打印输出,尝试使用

table.execute().print();

错误信息

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/flink/optimizer/costs/CostEstimator

ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();
//        env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime);//构建EnvironmentSettings 并指定Blink PlannerEnvironmentSettings bsSettings = EnvironmentSettings.newInstance().useBlinkPlanner().inStreamingMode().build();//构建TableEnvironmentTableEnvironment tableEnv = TableEnvironment.create(bsSettings);
//        StreamTableEnvironment tableEnv2 = StreamTableEnvironment.create(bsSettings);String name = "myhive";String defaultDatabase = "default";String hiveConfDir = "G:\\xxxx\\Flink SQL开发文件"; // hive配置文件地址String version = "1.1.0";Catalog catalog = new HiveCatalog(name,defaultDatabase, hiveConfDir, version);tableEnv.registerCatalog("myhive", catalog);tableEnv.useCatalog("myhive");String createDbSql = "SELECT code ,total_emp FROM  sample_07 ";String[] strings = tableEnv.listTables();for (int i = 0; i < strings.length; i++) {System.out.println(strings[i]);}Table table = tableEnv.sqlQuery(createDbSql);table.printSchema();
        env.execute();

后面尝试直接查询hive的数据插入kafka试试。 未完待续

Flink1.11 读取kafka数据写入hive,未完待续相关推荐

  1. kafka学习_《从0到1学习Flink》—— Flink 读取 Kafka 数据写入到 RabbitMQ

    前言 之前有文章 <从0到1学习Flink>-- Flink 写入数据到 Kafka 写过 Flink 将处理后的数据后发到 Kafka 消息队列中去,当然我们常用的消息队列可不止这一种, ...

  2. 1.30.Flink SQL案例将Kafka数据写入hive

    1.30.Flink SQL案例将Kafka数据写入hive 1.30.1.1.场景,环境,配置准备 1.30.1.2.案例代码 1.30.1.2.1.编写pom.xml文件 1.30.1.2.2.M ...

  3. java读写德卡数据_Spark Streaming 读取Kafka数据写入ES

    简介: 目前项目中已有多个渠道到Kafka的数据处理,本文主要记录通过Spark Streaming 读取Kafka中的数据,写入到Elasticsearch,达到一个实时(严格来说,是近实时,刷新时 ...

  4. Logstash读取Kafka数据写入HDFS详解

    强大的功能,丰富的插件,让logstash在数据处理的行列中出类拔萃 通常日志数据除了要入ES提供实时展示和简单统计外,还需要写入大数据集群来提供更为深入的逻辑处理,前边几篇ELK的文章介绍过利用lo ...

  5. spark读取oracle写入kafka,spark读取kafka文件写入hive

    1.将hdfs-site,core-site.hive-site文件拷贝到resources目录下 image.png 2.添加maven依赖 org.apache.spark spark-strea ...

  6. hive 分区_代码 | Spark读取mongoDB数据写入Hive普通表和分区表

    版本: 一.原始数据及Hive表 MongoDB数据格式 Hive普通表 Hive分区表 二. IDEA+Maven+Java 依赖 代码 工具类 三. 错误解决办法 1. IDEA会获取不到Hive ...

  7. asp.net页面绑定数据的方式-----未完待续

    **方式一 **方式二 转载于:https://www.cnblogs.com/wgx0428/archive/2012/05/10/2493953.html

  8. 写入mysql_《从0到1学习Flink》—— Flink 读取 Kafka 数据批量写入到 MySQL

    前言 之前其实在 <从0到1学习Flink>-- 如何自定义 Data Sink ? 文章中其实已经写了点将数据写入到 MySQL,但是一些配置化的东西当时是写死的,不能够通用,最近知识星 ...

  9. 利用SparkSQL(java版)将离线数据或实时流数据写入hive的用法及坑点

    1. 通常利用SparkSQL将离线或实时流数据的SparkRDD数据写入Hive,一般有两种方法.第一种是利用org.apache.spark.sql.types.StructType和org.ap ...

最新文章

  1. 主题:CS0016: 未能写入输出文件“c:#92;WINDOWS#92;Microsoft.NET#92;***.dll”错误处理...
  2. 14个顶级开发社区 [程序员]
  3. 【Vegas原创】安装rhel6.2,不能进图形化界面的终极解决方法
  4. python读excel字体颜色_python 设置 excel 单元格颜色填充和字体效果
  5. C++中的 smart pointer 四个智能指针
  6. JavaScript调用服务器事件
  7. [C++11 std::thread] 使用C++11 编写 Linux 多线程程序
  8. C# 析构函数(Destructor)和终结器(Finalizer)——托管资源的释放
  9. php spss,spss新手入门
  10. python创建目录保存文件
  11. 网站地图是什么,怎么制作和查看网站的地图呢?
  12. HTML特效代码大全(史上最全)
  13. 鼠标能动但是无法点击屏幕(间歇性)
  14. 计算捐款总量 (10 分)
  15. 央企建筑公司数字化转型怎么做
  16. 2012杀毒软件排行榜!
  17. Sql 中两个数除法计算结果等于0原因是什么?
  18. win10启用长路径
  19. 【Mybatis】Mybatis 注解开发
  20. 【运筹学】对偶理论 : 对偶性质 ( 对称性质 | 对称性质推导 )

热门文章

  1. 最最详细的黑马前端HTML5+CSS3笔记,给大家整理好了
  2. nodejs:fs (内置模块)读取和写入文件
  3. 微信公众平台安全模式消息体签名及加解密PHP代码示例
  4. k210 C语言开发-3 使用SD卡
  5. 联想x3300 m4服务器维修,【联想x3300 M4参数】联想x3300 M4系列服务器参数-ZOL中关村在线...
  6. hdu1256-画8
  7. Java编程随机发红包,红包随机算法Java实现
  8. DirectX12的初始化
  9. jsp高校学生宿舍公寓管理系统功能最全
  10. 记一次暴力破解tomcat后台密码(附带python脚本)