我编写了一个pyspark脚本,该脚本读取两个json文件,coGroup然后将它们发送到elasticsearch集群。当我在本地运行该elasticsearch-

hadoop文件时,一切都会正常运行(大部分情况下),我下载了org.elasticsearch.hadoop.mr.EsOutputFormat和org.elasticsearch.hadoop.mr.LinkedMapWritable类的jar文件,然后使用pyspark使用--jars参数运行我的工作,并且可以看到在我的Elasticsearch集群中出现的文档。

但是,当我尝试在Spark群集上运行它时,出现此错误:

Traceback (most recent call last):

File "/root/spark/spark_test.py", line 141, in

conf=es_write_conf

File "/root/spark/python/pyspark/rdd.py", line 1302, in saveAsNewAPIHadoopFile

keyConverter, valueConverter, jconf)

File "/root/spark/python/lib/py4j-0.8.2.1-src.zip/py4j/java_gateway.py", line 538, in __call__

File "/root/spark/python/lib/py4j-0.8.2.1-src.zip/py4j/protocol.py", line 300, in get_return_value

py4j.protocol.Py4JJavaError: An error occurred while calling z:org.apache.spark.api.python.PythonRDD.saveAsNewAPIHadoopFile.

: java.lang.ClassNotFoundException: org.elasticsearch.hadoop.mr.LinkedMapWritable

at java.net.URLClassLoader$1.run(URLClassLoader.java:366)

at java.net.URLClassLoader$1.run(URLClassLoader.java:355)

at java.security.AccessController.doPrivileged(Native Method)

at java.net.URLClassLoader.findClass(URLClassLoader.java:354)

at java.lang.ClassLoader.loadClass(ClassLoader.java:425)

at java.lang.ClassLoader.loadClass(ClassLoader.java:358)

at java.lang.Class.forName0(Native Method)

at java.lang.Class.forName(Class.java:274)

at org.apache.spark.util.Utils$.classForName(Utils.scala:157)

at org.apache.spark.api.python.PythonRDD$$anonfun$getKeyValueTypes$1$$anonfun$apply$9.apply(PythonRDD.scala:611)

at org.apache.spark.api.python.PythonRDD$$anonfun$getKeyValueTypes$1$$anonfun$apply$9.apply(PythonRDD.scala:610)

at scala.Option.map(Option.scala:145)

at org.apache.spark.api.python.PythonRDD$$anonfun$getKeyValueTypes$1.apply(PythonRDD.scala:610)

at org.apache.spark.api.python.PythonRDD$$anonfun$getKeyValueTypes$1.apply(PythonRDD.scala:609)

at scala.Option.flatMap(Option.scala:170)

at org.apache.spark.api.python.PythonRDD$.getKeyValueTypes(PythonRDD.scala:609)

at org.apache.spark.api.python.PythonRDD$.saveAsNewAPIHadoopFile(PythonRDD.scala:701)

at org.apache.spark.api.python.PythonRDD.saveAsNewAPIHadoopFile(PythonRDD.scala)

at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)

at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)

at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)

at java.lang.reflect.Method.invoke(Method.java:606)

at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:231)

at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:379)

at py4j.Gateway.invoke(Gateway.java:259)

at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:133)

at py4j.commands.CallCommand.execute(CallCommand.java:79)

at py4j.GatewayConnection.run(GatewayConnection.java:207)

at java.lang.Thread.run(Thread.java:745)

在我看来,这很清楚:elasticsearch-

hadoop工人无法使用广口瓶;问题是:如何将其与应用程序一起发送?我可以将其sc.addPyFile用于python依赖项,但不能与jars一起使用,并且使用--jars参数spark-

submit也无济于事。

spark提交python程序_pyspark:带有spark提交的jars依赖相关推荐

  1. spark提交python程序_Spark任务提交(Spark Submit)

    Spark-Submit简介 spark-submit脚本用于在集群上启动应用程序,它位于Spark的bin目录中.这种启动方式可以通过统一的界面使用所有的Spark支持的集群管理功能,因此您不必为每 ...

  2. spark调用python程序包_pycharm编写spark程序,导入pyspark包的3中实现方法

    一种方法: File --> Default Setting --> 选中Project Interpreter中的一个python版本-->点击右边锯齿形图标(设置)-->选 ...

  3. 运行qsub 提交python程序 Ambiguous output redirect fault报错

    文章目录 运行Ridge_LOOCV_Permutation 报错现象 其它报错 在Linux下创建一个可运行shell脚本 Pycharm导入自定义的模块出现红色下划线 Reference 运行Ri ...

  4. 非计算机专业《Python程序设计基础》教学参考大纲

    <Python程序设计基础> 教  学  大  纲 目   录 一. 课程简介 二. 教学目的和要求 三. 教学中应注意的问题 四. 教学内容 五. 教学课时分配 六. 教材与参考书目 一 ...

  5. Python程序设计基础教学大纲

    转载网址:https://mp.weixin.qq.com/s?__biz=MzI4MzM2MDgyMQ==&mid=2247486738&idx=1&sn=c56247741 ...

  6. 平台搭建---Spark提交应用程序---Spark Submit提交应用程序及yarn

    本部分来源,也可以到spark官网查看英文版. spark-submit 是在spark安装目录中bin目录下的一个shell脚本文件,用于在集群中启动应用程序(如***.py脚本):对于spark支 ...

  7. idea写java spark程序,Spark : 在IDEA中用scala编写Spark的WordCount程序并提交运行

    使用IDEA新建maven工程,添加相关依赖: 1.8 1.8 2.11.11 2.3.0 2.7.7 utf-8 org.scala-lang scala-library ${scala.versi ...

  8. spark指定python版本_如何将正常的Python应用程序正确转换为PySpark版本

    我是PySpark的初学者,最近我尝试向我的Spark集群提交一个简单的python应用程序(批量调整大小图片).我可以成功地通过pycharm运行该应用程序,并且当我将应用程序提交给spark时,图 ...

  9. spark用python编程的书_PySpark实战指南:利用Python和Spark构建数据密集型应用并规模化部署...

    译者序 前言 关于作者 第1章 了解Spark 1.1 什么是Apache Spark 1.2 Spark作业和API 1.2.1 执行过程 1.2.2 弹性分布式数据集 1.2.3 DataFram ...

最新文章

  1. 认识多渲染目标(Multiple Render Targets)技术 【转】
  2. 为app录制展示gif
  3. 我的地盘我做主——你必须遵守的Python编码规范
  4. php中符号 的作用是什么意思,PHP中@符号的用途是什么?
  5. 简要分析电话光端机的常见问题
  6. 可燃气体浓度多少合格_安燃无恙 | 可燃气体报警器的常见故障处理
  7. 2.3基本算法之递归变递推_3525上台阶
  8. Qt工作笔记-进程间的通信(通过QSharedMemory)
  9. [PyTorch] 矩阵乘法
  10. 在html显示php代码,html跳转php只显示源代码
  11. 批处理QQ音乐生成的文件名
  12. 别细看|请收藏|堆垛机故障大全及解决办法
  13. 7-4 人民币兑换 (10 分)C语言
  14. 宏基服务器 安装系统,宏基Acer笔记本重装系统win7图文安装教程
  15. 基于物联网的智慧农业监测系统(前端界面有web端和微信小程序端)
  16. 奥运五环的绘制-进阶
  17. 算法提高——JOE的算数
  18. 用云服务器搭建虚拟主机,用云服务器搭建虚拟主机
  19. SD NAND Flash简介!
  20. Google Chrome 中国官网最新版离线安装包下载地址

热门文章

  1. [Err] [Imp] 1366 - Incorrect string value: ‘\xE8\xB5\x96\xE5\x81\xA5...‘ for column ‘学生姓名‘ at row 1
  2. Define的用法及说明
  3. 香港金管局正式推出商业数据通
  4. 十大品牌笔记本电脑型号命名规则详解
  5. 服务器补丁信息,服务器补丁管理|如何修补服务器?-ManageEngine补丁管理器升级版...
  6. CGCA2021 中国消费品行业 CIO 年会落幕|有信云荣膺“年度卓越低代码 PaaS 中台奖”
  7. matlab利用经纬度计算距离,MATLAB函数可计算两个坐标(纬度和经度)之间的距离...
  8. 三八妇女节送什么礼物最好?妇女节礼物推荐
  9. iOS Switch内部原理
  10. 最好的风水,在君嘴上