Spark安装部署:Standalone模式

文章目录

  • Spark安装部署:Standalone模式
  • 1、实验描述
  • 2、实验环境
  • 3、相关技能
  • 4、知识点
  • 5、实现效果
  • 6、实验步骤
  • 7、总结

1、实验描述

  • 以spark Standalone的运行模式安装Spark集群
  • 实验时长:
    • 45分钟
  • 主要步骤:
    • 解压安装Spark
    • 添加Spark 配置文件
    • 启动Spark 集群
    • 运行测试用例

2、实验环境

  • 虚拟机数量:3(一主两从,主机名分别为:master、slave01、slave02)
  • 系统版本:Centos 7.5
  • Hadoop版本:Apache Hadoop 2.7.3
  • Spark版本:Apache Spark 2.1.1

3、相关技能

  • Spark Standalone安装部署

4、知识点

  • 常见linux命令的使用
  • 通过修改.bash_profile文件配置spark
  • 验证spark standalone安装
  • 向集群提交application运行
  • spark webui的使用

5、实现效果

运行 计算Pi 示例最终效果如下图:

6、实验步骤

前提:已经在集群中成功安装部署Hadoop集群

6.1在master节点上解压spark压缩包

6.1.1打开linux命令行终端(桌面上点鼠标右键,选择“打开终端”)

6.1.2命令行终端中,切换到spark压缩包所在目录/home/zkpk/tgz/spark

[zkpk@master ~]$ cd /home/zkpk/tgz/spark

6.1.3将spark压缩包解压缩到用户的根目录

[zkpk@master spark]$ tar -xzvf spark-2.1.1-bin-hadoop2.7.tgz -C /home/zkpk

6.2查看解压出的spark目录中的内容

6.2.1返回用户要目录

[zkpk@master spark]$ cd

6.2.2进入解压出的spark目录

[zkpk@master ~]$ cd spark-2.1.1-bin-hadoop2.7/

6.2.3查看此目录内容

[zkpk@master spark-2.1.1-bin-hadoop2.7]$ ll

6.3配置环境变量

6.3.1回退到用户根目录

[zkpk@master spark-2.1.1-bin-hadoop2.7]$ cd

6.3.2vim编辑.bash_profile文件

[zkpk@master ~]$ vim .bash_profile

6.3.3添加spark相关信息,然后保存退出

export SPARK_HOME=/home/zkpk/spark-2.1.1-bin-hadoop2.7export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH

6.3.4运行source命令,重新编译.bash_profile,使添加变量生效

[zkpk@master ~]$ source ~/.bash_profile

6.3.5slave01、slave02也是执行如上配置

6.3.5.1将.bash_profile文件分别拷贝到slave01、slave02的/home/zkpk目录

[zkpk@master ~]$ cd [zkpk@master ~]$ scp .bash_profile slave01:/home/zkpk[zkpk@master ~]$ scp .bash_profile slave02:/home/zkpk

6.3.5.2source使修改生效

[zkpk@master ~]$ ssh slave01    #远程登录slave01[zkpk@slave01 ~]$ source .bash_profile[zkpk@slave01 ~]$ exit    #退出远程登录[zkpk@master ~]$ ssh slave02    #远程登录slave02[zkpk@slave02 ~]$ source .bash_profile[zkpk@slave02 ~]$ exit    #退出远程登录

6.4修改slaves文件

6.4.1进入spark的配置文件目录

[zkpk@master ~]$ cd spark-2.1.1-bin-hadoop2.7/conf/

6.4.2将conf目录中的slaves.template文件重命名为slaves

[zkpk@master conf]$ mv slaves.template slaves

6.4.3将slaves原内容替换为如下内容,并保存退出

slave01slave02

6.5修改conf目录中的spark-env.sh文件

6.5.1重命名文件spark-env.sh.template为spark-env.sh

[zkpk@master conf]$ mv spark-env.sh.template spark-env.sh

6.5.2将如下内容添加到spark-env.sh文件,并保存退出

export SPARK_MASTER_HOST=master #设置运行master进程的节点export SPARK_MASTER_PORT=7077 #设置master的通信端口export SPARK_WORKER_CORES=1 #每个worker使用的核数export SPARK_WORKER_MEMORY=1024M #每个worker使用的内存大小export SPARK_MASTER_WEBUI_PORT=8080 #master的webui端口export SPARK_CONF_DIR=/home/zkpk/spark-2.1.1-bin-hadoop2.7/conf #spark的配置文件目录 export JAVA_HOME=/usr/java/jdk1.8.0_131/ #jdk安装路径

6.6将经过配置的spark主目录远程拷贝到另外两个从节点

6.6.1切换到用户根目录

[zkpk@master conf]$ cd

6.6.2远程拷贝spark主目录到slave01

[zkpk@master ~]$ scp -r spark-2.1.1-bin-hadoop2.7/ zkpk@slave01:/home/zkpk

6.6.3远程拷贝spark主目录到slave02

[zkpk@master ~]$ scp -r spark-2.1.1-bin-hadoop2.7/ zkpk@slave02:/home/zkpk

6.7启动spark集群

6.7.1进入master节点 的spark的sbin目录

[zkpk@master ~]$ cd spark-2.1.1-bin-hadoop2.7/sbin/

6.7.2运行start-all.sh启动spark集群

[zkpk@master sbin]$ ./start-all.sh

6.7.3验证spark standalone模式部署正确

6.7.3.1打开浏览器访问spark webui界面地址:http://master:8080,出现类似下图界面

6.7.3.2命令行提交job到spark集群

[zkpk@master sbin]$ cd spark-2.1.1-bin-hadoop2.7/bin/[zkpk@master bin]$./bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://master:7077 --num-executors 3 --driver-memory 1g --executor-memory 1g --executor-cores 1 examples/jars/spark-examples_2.11-2.1.1.jar 10


计算出pi的结果,如下图:Pi is roughly 3.1418271418271417

6.7.3.3至此说明,spark standalone模式安装部署成功

7、总结

spark
standalone的安装部署涉及到集群中的各节点,基本步骤就是在master节点解压压缩包,配置spark的slaves、spark-env.sh文件、配置.bash_profile文件,并将spark目录及.bash_profile远程拷贝到其它从节点,在master节点启动spark集群,以spark
standalone模式运行一个spark的计算pi的例子

Spark安装部署:Standalone模式相关推荐

  1. CC00012.flink——|HadoopFlink.V03|——|Flink.v03|安装部署|StandAlone模式部署|

    一.Flink安装和部署 ### --- Flink支持多种安装模式~~~ local(本地):单机模式,一般本地开发调试使用 ~~~ StandAlone 独立模式:Flink自带集群,自己管理资源 ...

  2. Spark 部署 Standalone 模式

    Spark 部署 Standalone 模式 解压缩文件 修改配置文件 启动集群 Web UI 界面 提交应用 提交参数说明 配置历史服务 配置日志存储路径 添加日志配置 重启动 Hadoop 集群 ...

  3. Spark环境搭建Standalone模式

    2.4  Standalone模式 在Standalon模式中,Spark集群由Master节点和Worker节点构成,使用内置的Standalon框架进行资源管理.Spark程序通过与Master节 ...

  4. hadoop+zookeeper+Hbase+spark安装部署总结

    hadoop+zookeeper+Hbase+spark安装部署总结 主要参考:https://blog.csdn.net/sunxiaoju/article/details/85918135 计算机 ...

  5. Spark 安装部署(Local+Standalone+Yarn等)

    概述 Spark作为一个数据处理框架和计算引擎,被设计在所有常见的集群环境中运行, 在国内工作中主流的环境为Yarn,不过逐渐容器式环境也慢慢流行起来.接下来,我们就分别看看不同环境下Spark的运行 ...

  6. Spark学习之standalone模式部署实战

    Standalone模式部署实战 spark有好几种运行模式,本次我们来挑一种standalone模式来操作一下,就是spark独自包揽除了存储文件操作之外的所有操作,包括集群管理,任务调度,程序计算 ...

  7. Spark的安装(Standalone模式,高可用模式,基于Yarn模式)

    目录 spark的Standalone模式安装 一.安装流程 1.将spark-2.2.0-bin-hadoop2.7.tgz  上传到 /usr/local/spark/ 下,然后解压 2.进入到c ...

  8. Spark 安装部署与快速上手

    核心概念 Spark 是 UC Berkeley AMP lab 开发的一个集群计算的框架,类似于 Hadoop,但有很多的区别. 最大的优化是让计算任务的中间结果可以存储在内存中,不需要每次都写入 ...

  9. spark 安装部署与介绍

    spark spark 概述 一. spark和hadoop 二. 应用常景和解决 生态系统组件 应用场景 Spark执行任务流程图 三. Spark安装 四. Spark部署模式 1.单机本地模式( ...

  10. Spark2.2.0分布式集群安装(StandAlone模式)

    一.依赖文件安装 1.1 JDK 参见博文:http://www.cnblogs.com/liugh/p/6623530.html 1.2 Scala 参见博文:http://www.cnblogs. ...

最新文章

  1. 【Hibernate】Hibernate实体关系映射——主键相同的一对一关系
  2. Linux 用户管理命令笔记
  3. TCP/IP模型的各层的作用
  4. java接口并发衡量_java 后端设计高并发接口总结
  5. ASP.NET----实现点击按钮或链接弹出登录对话框
  6. java swing 列表框_如何在Swing中使用列表框?
  7. 讨论记录:求大于一个时间段的最大平均积分,O(n)时间实现
  8. 判断字符串只能有且只有一处连续数字不同
  9. 我在京东这一年—张亮
  10. 求勾股数c语言OJ,C语言求勾股数(详解版)
  11. pandas中的freq和inferred_freq等时间参数究竟有哪些
  12. PHP - 性能测试工具
  13. 关于大数据技术的演讲_2020年大数据技术应用趋势与当前大数据技术实践反思...
  14. 在谷歌浏览器上注册账号--具有偶然性的成功
  15. python时间模块
  16. 华铭智能属于芯片概念吗_人工智能等四类67只科技蓝筹股值得长线布局
  17. 电脑系统刚刚升级成功,如何删除旧系统?
  18. 计算机在金属材料中的应用论文,金属材料论文
  19. python离线安装docx库
  20. 已经是公元2023年了,一定还有这么写代码的人儿。看看是如何把简单的事情搞复杂的。

热门文章

  1. 罗技鼠标驱动安装一直初始化和正在安装问题详解
  2. php 判断 小米 手机浏览器,网信办宣布整治手机浏览器 华为、QQ、小米等先查
  3. DOS命令查看局域网所有IP
  4. win10打开命令提示符
  5. 软件安全测试之系统安全测试,软件安全测试报告模板.docx
  6. redis可视化工具desktop manager
  7. 环境试验之单臂跌落试验机操作规程
  8. 光环PMP 三模模拟题
  9. 高等数学常用极限求法总结(无详解)
  10. Xshell使用教程(不断总结...)