spark的python开发安装方式_PyCharm搭建Spark开发环境的实现步骤
1.安装好JDK
下载并安装好jdk-12.0.1_windows-x64_bin.exe,配置环境变量:
新建系统变量JAVA_HOME,值为Java安装路径
新建系统变量CLASSPATH,值为 .;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar;(注意最前面的圆点)
配置系统变量PATH,添加 %JAVA_HOME%bin;%JAVA_HOME%jrebin
在CMD中输入:java或者java -version,不显示不是内部命令等,说明安装成功。
2.安装Hadoop,并配置环境变量
下载hadoop:https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz
解压hadoop-2.7.7.tar.gz特定路径,如:D:\adasoftware\hadoop
添加系统变量HADOOP_HOME:D:\adasoftware\hadoop
在系统变量PATH中添加:D:\adasoftware\hadoop\bin
安装组件winutils:将winutils中对应的hadoop版本中的bin替换自己hadoop安装目录下的bin
3.Spark环境变量配置
spark是基于hadoop之上的,运行过程中会调用相关hadoop库,如果没配置相关hadoop运行环境,会提示相关出错信息,虽然也不影响运行。
下载对应hadoop版本的spark:http://spark.apache.org/downloads.html
解压文件到:D:\adasoftware\spark-2.4.3-bin-hadoop2.7
添加PATH值:D:\adasoftware\spark-2.4.3-bin-hadoop2.7\bin;
新建系统变量SPARK_HOME:D:\adasoftware\spark-2.4.3-bin-hadoop2.7;
4.下载安装anaconda
anaconda集成了python解释器和大多数python库,安装anaconda 后不用再安装python和pandas numpy等这些组件了。下载地址。最后将python加到path环境变量中。
5.在CMD中运行pyspark,出现类似下图说明安装配置正常:
出现这种warning是因为JDK版本为12,太高了,但是不影响运行。没有影响。
6.在pycharm中配置spark
打开PyCharm,创建一个Project。然后选择“Run” ->“Edit Configurations”–>点击+创建新的python Configurations
选择 “Environment variables” 增加SPARK_HOME目录与PYTHONPATH目录。
SPARK_HOME:Spark安装目录
PYTHONPATH:Spark安装目录下的Python目录
选择 File->setting->你的project->project structure
右上角Add content root添加:py4j-some-version.zip和pyspark.zip的路径(这两个文件都在Spark中的python文件夹下)
保存即可
7.测试是否配置成功,程序代码如下,创建一个python程序放进去就可以:
import os
import sys
# Path for spark source folder
os.environ['SPARK_HOME'] = "D:\adasoftware\spark"
# Append pyspark to Python Path
sys.path.append("D:\adasoftware\spark\python")
try:
from pyspark import SparkContext
from pyspark import SparkConf
print("Successfully imported Spark Modules")
except ImportError as e:
print("Can not import Spark Modules", e)
sys.exit(1)
若程序正常输出: "Successfully imported Spark Modules"就说明环境已经可以正常执行。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持脚本之家。
spark的python开发安装方式_PyCharm搭建Spark开发环境的实现步骤相关推荐
- java开发安装mysql_从零开始搭建Java开发环境第二篇:如何在windows10里安装MySQL
1 下载安装包 1.1 压缩包 [外链图片转存失败(img-oesO8K09-1566652568838)(data:image/gif;base64,R0lGODlhAQABAPABAP///wAA ...
- Win10 的 VMware 中安装 UOS 20,在 UOS 中安装 QtCreator 及搭建 DTK 开发环境
文章目录 关联博文: 背景缘由: win10里面的VMware安装UOS20系统: 在`uos20`里面安装`QtCreator`: 在`QtCretor`里面配置`dtk`开发环境和工程模板: 安装 ...
- 被gensim玩坏的我及几种Python包安装方式
今个需要用到gensim这个包,折腾了一整天才安装好,究其原因,一个是自己电脑的环境安装太混乱,另一个就是安装包的安装顺序没有搞明白,网上的各种帖子也是鱼龙混杂,这可能也就是大数据的含义吧,数据量多, ...
- Hadoop化繁为简(一)-从安装Linux到搭建集群环境
Hadoop化繁为简(一)-从安装Linux到搭建集群环境 简介与环境准备 hadoop的核心是分布式文件系统HDFS以及批处理计算MapReduce.近年,随着大数据.云计算.物联网的兴起,也极大的 ...
- Hadoop化繁为简-从安装Linux到搭建集群环境
Hadoop化繁为简-从安装Linux到搭建集群环境 摘要: 简介与环境准备hadoop的核心是分布式文件系统HDFS以及批处理计算MapReduce.近年,随着大数据.云计算.物联网的兴起,也极大的 ...
- spark的python开发安装方式_windows下安装spark-python
首先需要安装Java 下载安装并配置Spark 从官方网站Download Apache Spark™下载相应版本的spark,因为spark是基于hadoop的,需要下载对应版本的hadoop才行, ...
- spark的python开发安装方式,最简单的方式来安装Python依赖关系的Spark执行器节点?...
I understand that you can send individual files as dependencies with Python Spark programs. But what ...
- spark java8 scala_在 Ubuntu16.04 中搭建 Spark 单机开发环境 (JDK + Scala + Spark)
1.准备 本文主要讲述如何在Ubuntu 16.04 中搭建 Spark 2.11 单机开发环境,主要分为 3 部分:JDK 安装,Scala 安装和 Spark 安装. 需要注意的是,Spark 版 ...
- 图文详述:下载安装JDK,搭建Java开发环境,并运行第一个Java程序
文章目录 前言 一.Java 三大版本 二.JDK.JRE和JVM 三.Java 开发准备 1. JDK 下载 2. JDK 安装 3. JDK 配置 (Java 开发环境搭建) 4. JDK 测试 ...
最新文章
- 2020-12-13
- 【转】清理Visual Studio打开的项目和文件、查找和最近引用组件痕迹
- VCenter (虚拟架构环境的集中管理) 、数据库虚拟机迁移的影响
- 认证篇——消息认证码
- Java-Web 监听器和过滤器
- 【PP生产订单】入门介绍(七)
- python发送文件给微信好友_Python定时自动给微信好友发送天气预报
- shell字段拼接日期_shell 脚本字符串拼接
- TechEd 2007 HOL分享
- Jsp版本的计算器(九大对象)
- 调用 oauth2_奥利给,再也不怕面试官问我OAuth 2.0授权了
- 在学习C语言和C++初期的疑惑有哪些?
- mysql补0操作有什么意义?
- c4d导出html,C4D动力学如何导出fbx或者其他格式?
- rpcbind服务没法开启问题
- win10中Edge浏览器升级后崩溃 STATUS_INVALID_IMAGE_HASH
- 西农大 Java 实验四 第三题
- API获取微信小程序二维码
- PXC+haproxy+keepalived环境搭建
- 1.计算机指令系统,深入学习计算机指令系统唐书
热门文章
- [2018.12.26]BZOJ1022 [SHOI2008]小约翰的游戏John
- LINUX常见小问题汇总
- 虚拟机ping不通主机,但是主机可以ping通虚拟机(转载)
- Eclipse 引导阮卓项目 No projects are found to import解
- devexpress表格控件gridcontrol实现纵向标头
- mysql 联合索引详解
- C#综合揭秘——细说多线程(上)
- 学习python之序言
- 慢慢学Linux驱动开发,第四篇,USB工作原理简单分析
- 设计模式-模板方法(Template Method Patten)