spark 2.2 读取 Hadoop3.0 数据异常

Exception in thread "main" java.lang.IllegalAccessError: class org.apache.hadoop.hdfs.web.HftpFileSystem cannot access its superinterface org.apache.hadoop.hdfs.web.TokenAspect$TokenManagementDelegatorat java.lang.ClassLoader.defineClass1(Native Method)at java.lang.ClassLoader.defineClass(ClassLoader.java:763)at java.security.SecureClassLoader.defineClass(SecureClassLoader.java:142)at java.net.URLClassLoader.defineClass(URLClassLoader.java:467)at java.net.URLClassLoader.access$100(URLClassLoader.java:73)at java.net.URLClassLoader$1.run(URLClassLoader.java:368)at java.net.URLClassLoader$1.run(URLClassLoader.java:362)at java.security.AccessController.doPrivileged(Native Method)at java.net.URLClassLoader.findClass(URLClassLoader.java:361)at java.lang.ClassLoader.loadClass(ClassLoader.java:424)at java.lang.ClassLoader.loadClass(ClassLoader.java:357)at java.lang.Class.forName0(Native Method)at java.lang.Class.forName(Class.java:348)at java.util.ServiceLoader$LazyIterator.nextService(ServiceLoader.java:370)at java.util.ServiceLoader$LazyIterator.next(ServiceLoader.java:404)at java.util.ServiceLoader$1.next(ServiceLoader.java:480)at org.apache.hadoop.fs.FileSystem.loadFileSystems(FileSystem.java:3202)at org.apache.hadoop.fs.FileSystem.getFileSystemClass(FileSystem.java:3247)at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:3286)at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:123)at org.apache.hadoop.fs.FileSystem$Cache.getInternal(FileSystem.java:3337)at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:3305)at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:476)at org.apache.spark.util.Utils$.getHadoopFileSystem(Utils.scala:1857)at org.apache.spark.scheduler.EventLoggingListener.<init>(EventLoggingListener.scala:68)at org.apache.spark.SparkContext.<init>(SparkContext.scala:532)at com.izhonghong.utils.SparkContextHelper$.sc$lzycompute$1(SparkContextHelper.scala:46)at com.izhonghong.utils.SparkContextHelper$.sc$1(SparkContextHelper.scala:46)at com.izhonghong.utils.SparkContextHelper$.getContext(SparkContextHelper.scala:47)at com.izhonghong.data.filter.WeChatDataFilter$.<init>(WeChatDataFilter.scala:18)at com.izhonghong.data.filter.WeChatDataFilter$.<clinit>(WeChatDataFilter.scala)at com.izhonghong.data.filter.WeChatDataFilter.main(WeChatDataFilter.scala)at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)at java.lang.reflect.Method.invoke(Method.java:498)at org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:775)at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:180)at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:205)at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:119)at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)

解决方式,spark2.2默认引用hadoop2.6.*版本的jar包,删除2.6版本jar包,手动引用3.0jar包再次启动,成功

配置如下

<properties><hbase.version>2.0.0</hbase.version><spark.version>2.2.0</spark.version><scala.version>2.11.8</scala.version><hadoop.version>3.0.0</hadoop.version></properties><dependencies><!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-client --><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-client</artifactId><version>${hadoop.version}</version></dependency><!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-hdfs --><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-hdfs</artifactId><version>${hadoop.version}</version><exclusions><exclusion><artifactId>jackson-databind</artifactId><groupId>com.fasterxml.jackson.core</groupId></exclusion></exclusions></dependency><!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-common --><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-common</artifactId><version>${hadoop.version}</version><exclusions><exclusion><artifactId>jackson-databind</artifactId><groupId>com.fasterxml.jackson.core</groupId></exclusion></exclusions></dependency><dependency><groupId>org.apache.spark</groupId><artifactId>spark-core_2.11</artifactId><version>${spark.version}</version><exclusions><exclusion><artifactId>hadoop-client</artifactId><groupId>org.apache.hadoop</groupId></exclusion></exclusions></dependency><dependency><groupId>org.apache.spark</groupId><artifactId>spark-sql_2.11</artifactId><version>${spark.version}</version></dependency><dependency><groupId>org.apache.hbase</groupId><artifactId>hbase-it</artifactId><version>${hbase.version}</version><exclusions><exclusion><artifactId>jackson-databind</artifactId><groupId>com.fasterxml.jackson.core</groupId></exclusion></exclusions></dependency><dependency><groupId>org.apache.hbase</groupId><artifactId>hbase-server</artifactId><version>${hbase.version}</version></dependency><dependency><groupId>org.scala-lang</groupId><artifactId>scala-library</artifactId><version>${scala.version}</version></dependency></dependencies>

spark 2.2 读取 Hadoop3.0 数据异常 org.apache.hadoop.hdfs.web.HftpFileSystem cannot access its superinterfa相关推荐

  1. spark用scala读取hive表数据(不同版本区别)

    spark用scala读取hive表数据 spark1.6写法: val conf = new SparkConf()      val sc = new SparkContext(conf)     ...

  2. 【Hadoop启动异常】org.apache.hadoop.hdfs.server.common.InconsistentFSStateException

    异常描述 hadoop启动过程中namenode打不开,通过查看logs文件下,namenode-xxx.log文件,发现一下错误信息: org.apache.hadoop.hdfs.server.c ...

  3. Spark运行任务时报错:org.apache.hadoop.hdfs.protocol.DSQuotaExceededException: The DiskSpace quota of...

    今天运行spark任务时,遇到一个错误,主要报错信息如下: org.apache.spark.SparkException:Task failed while writing rows. Caused ...

  4. HDFS超租约异常总结(org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException)

    异常信息: 13/09/11 12:12:06 INFO hdfs.DFSClient: SMALL_BUFFER_SIZE is 512 org.apache.hadoop.ipc.RemoteEx ...

  5. Spark读取Hbase报错NoSuchMethodError: org.apache.hadoop.conf.Configuration.getPassword(Ljava/lang/String;

    NoSuchMethodError一般报错都是包冲突导致的. java.lang.NoSuchMethodError: org.apache.hadoop.conf.Configuration.get ...

  6. 大数据方向学习系列——hadoop——hdfs学习

    文章目录 1.HDFS概述 1.1 HDFS产生背景 1.2 HDFS优点 1.3 HDFS缺点 1.4 HDFS组成架构 1.5 HDFS文件块大小(面试重点) 2. HDFS的Shell操作(开发 ...

  7. Hadoop 3.0的新增功能– Apache Hadoop 3的增强功能

    这个" Hadoop 3.0的新功能 "博客着重介绍了Hadoop 3预期中的更改,因为它仍处于Alpha阶段.Apache社区已合并了许多更改,并且仍在进行某些更改.因此,我们将 ...

  8. 文件数据云计算学习笔记---Hadoop HDFS和MapReduce 架构浅析

    本文是一篇关于文件数据的帖子 媒介 Hadoop是一个基于Java的分布式麋集数据处理和数据分析的软件框架.Hadoop在很大程度上是受Google在2004年白皮书中论述的MapReduce技术的启 ...

  9. Apache Hadoop HDFS数据节点Apache Mesos框架

    介绍 该项目允许在Mesos上运行HDFS. 您应该熟悉HDFS和Mesos基础知识: http://mesos.apache.org/documentation/latest/ https://ha ...

最新文章

  1. FutureWarning: Passing (type, 1) or ‘1type‘ it will be understood as (type, (1,)) / ‘(1,)type‘
  2. AI人工智能开发的路径有三条,最成功的是机器学习技术:强化学习
  3. Spring事务TransactionProxyFactoryBean属性-transactionAttributes的意义
  4. Android数据的存储方式简介
  5. python 协程_Python多任务协程
  6. 人工智能和分布式账本如何帮助我们解决假新闻
  7. 力扣76,最小覆盖字串(JavaScript)
  8. opencms mysql_OpenCms for MySql安装图解
  9. android 广播 event,无法接收android.intent.action.EVENT_REMINDER广播
  10. JavaScript学习(五十九)—原型、原型链、闭包以及闭包的不足
  11. CCF201604-1 折点计数(解法二)(100分)(废除!!!)
  12. iOS平台iPhone iPad和iPod Touch开源应用游戏App源代码下载
  13. 算法导论第三版 17.1-2习题答案
  14. html如何加载ae做好的,AE转JS动画,lottie.js和bodymovin的简易使用心得
  15. Git版本管理及使用规范
  16. 计算机多媒体技术主要有什么特征,多媒体技术特征有哪些_多媒体技术的关键特性介绍...
  17. 监督学习(supervised learning)与非监督学习(unsupervised learning)
  18. 制作CRM管理系统04(客户增加)
  19. 对于币圈的情况,除了内心没有别
  20. 在网络隔离下实现文件传输交换,你的方式真的安全吗?

热门文章

  1. nfc加密卡pm3和pm5区别_小米手环4/5 NFC添加加密门禁
  2. java dom cdata_java – 通过DOM解析器从XML处理CDATA
  3. cassss服务未启动_电梯启动死机故障处理方法
  4. git上传分支的原理_几张图让你彻底弄懂git工作流(二) ——git分支
  5. php server自定义函数,php:SQL Server用户自定义的函数种类详解
  6. python 获取昨天的日期_利用Python来实现报表的自动发送,解放你时间去做更有意思的事情...
  7. python 字符串格式化语法_Python基础语法--字符串格式化
  8. isight参数优化理论与实例详解_案例1(ISIGHT集成ADAMS CAR方法实现)
  9. 家装强电弱电布线图_家装水电施工标准(图文版),装修小白一眼也能看懂。...
  10. linux7yum安装mysql,CentOS7 使用yum安装mysql