waterdrop1.5.1将hive中orc格式的文件导入clickhouse中

diagnostics: User class threw exception: java.lang.ExceptionInInitializerErrorat org.apache.spark.sql.catalyst.parser.AbstractSqlParser.parse(ParseDriver.scala:84)at org.apache.spark.sql.execution.SparkSqlParser.parse(SparkSqlParser.scala:48)at org.apache.spark.sql.catalyst.parser.AbstractSqlParser.parseTableIdentifier(ParseDriver.scala:49)at org.apache.spark.sql.DataFrameWriter.saveAsTable(DataFrameWriter.scala:409)at com.xinyan.blockchain.ods.DataLoadETH$.loadEth(DataLoadETH.scala:82)at com.xinyan.blockchain.ods.DataLoadETH$.main(DataLoadETH.scala:45)at com.xinyan.blockchain.ods.DataLoadETH.main(DataLoadETH.scala)at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)at java.lang.reflect.Method.invoke(Method.java:498)at org.apache.spark.deploy.yarn.ApplicationMaster$$anon$2.run(ApplicationMaster.scala:665)
Caused by: java.lang.UnsupportedOperationException: java.io.InvalidClassException: org.antlr.v4.runtime.atn.ATN; Could not deserialize ATN with UUID 59627784-3be5-417a-b9eb-8131a7286089 (expected aadb8d7e-aeef-4415-ad2b-8204d6cf042e or a legacy UUID).at org.antlr.v4.runtime.atn.ATNDeserializer.deserialize(ATNDeserializer.java:154)at org.apache.spark.sql.catalyst.parser.SqlBaseLexer.<clinit>(SqlBaseLexer.java:1175)

解决方案:

在batch.conf中 配置 spark.executor.extraClassPath = "/*/parcels/CDH/lib/spark/hive/hive-exec-2.1.1-cdh6.3.2.jar"即可

waterdrop1.5.1相关推荐

  1. waterdrop1.x导入clickhouse分布式表-fitersql

    接上一篇,最后留下的两个问题, 针对问题2:在不修改源代码的情况下,如何实现分布式表的本地hash方式写入? 现在做一些尝试和验证. 思路: waterdrop是可以进行多数据流程处理的,官方说明文档 ...

  2. waterdrop1.x导入clickhouse分布式表-修改源码

    接上一篇,使用fiter+sql方式进行分布式写表,存在效率低的问题,现在尝试从源码入手,制定clickhouse的分布式表本地写入方案 编译好的class文件: https://download.c ...

  3. waterdrop1.x导入clickhouse分布式表-默认方式

    先引用一段官方output clickhouse插件中,对分布式表的说明 官方文档地址:https://interestinglab.github.io/seatunnel-docs/#/zh-cn/ ...

  4. spark 写tidb_优秀的数据工程师,怎么用Spark在TiDB上做OLAP分析

    TiDB 是一款定位于在线事务处理/在线分析处理的融合型数据库产品,实现了一键水平伸缩,强一致性的多副本数据安全,分布式事务,实时 OLAP 等重要特性. TiSpark 是 PingCAP 为解决用 ...

  5. ClickHouse表引擎之Integration系列

    ​ Integration系统表引擎主要用于将外部数据导入到ClickHouse中,或者在ClickHouse中直接操作外部数据源. 1 Kafka 1.1 Kafka引擎 ​ 将Kafka Topi ...

  6. 【clickhouse】使用waterdrop将Hive中的数据导入ClickHouse

    1.概述 转载:使用waterdrop将Hive中的数据导入ClickHouse 这里仅仅自己学习用. 前言 最近有一个需求需要把hive的数据同步到clickhouse,而且数据量还比较大,所以使用 ...

  7. 基于waterdrop,从hive抽取数据至Oracle

    相关链接:基于waterdrop,从oracle直接拉取数据进仓Clickhouse_Johnwick888的博客-CSDN博客 继之前基于waterdrop,从orcale直接抽取数据到Clickh ...

  8. Waterdrop之数据处理

    背景及痛点: 我们的确可以利用Spark提供的API对数据进行任意处理,但是整套逻辑的开发是个不小的工程,需要一定的Spark基础以及使用经验才能开发出稳定高效的Spark代码.除此之外,项目的编译. ...

  9. Waterdrop总结

    目录 1.简介 使用场景 Waterdrop 的特性 Waterdrop 的工作流程 核心概念 安装 Waterdrop 支持的插件(v1.x) 环境依赖 2.功能测试 任务提交方式 从Hive表导入 ...

最新文章

  1. minitab怎么算西格玛水平_六西格玛黑带培训内容
  2. 华为,牵手这所新大学!
  3. 【每日一题】 牛客 密码强度等级
  4. 数控四轴四面 CUBE 应用的软件开发
  5. python xpath语法-【python】爬虫: lxml解析库、XPath语法详解
  6. 深度卷积网络CNN与图像语义分割
  7. xcode更新之后插件失效的解决办法
  8. 性能测试工具Gatling
  9. 20145302张薇《Java程序设计》第十周学习总结
  10. non-rigid shape registration using similarity-invariant differential coordinates
  11. postgresql 索引状态_PostgreSQL中的锁:3.其他锁
  12. Ubuntu图标变成问号
  13. 选offer的5个维度
  14. 用keil5将程序下载到板子里
  15. Java简单聊天室Socket服务器客户程序
  16. 大华嵌入式笔试总结-提前批+正式批(已offer)
  17. 微信app支付php案例分析,PHP实现APP微信支付的实例讲解
  18. Unity Animator Animation详解及应用实例教程
  19. Word错别字校对-JCJC
  20. 对populate()方法的理解

热门文章

  1. eclipse经常未响应优化
  2. 微软VS账号无法登录问题
  3. K系列伺服缸-美国EXLAR原装K系列伺服缸
  4. 前端Js左侧菜单栏伸缩功能(隐藏/显示)
  5. sd 卡驱动在2.6内核的编写.sd/mmc/sdio kernel,sd/mmc/sdio 内核
  6. java毕业设计随心淘网管理系统源码+lw文档+mybatis+系统+mysql数据库+调试
  7. 《Linux命令行与shell脚本编程大全》第二十章 正则表达式
  8. Linux创造固定的文件大小-预分配磁盘空间
  9. apk android lite,APK提取器lite
  10. 玉米生长的计算机模拟模型,玉米生长过程可视化及其模拟系统