Spark是通用的基于内存计算的大数据框架,可以和hadoop生态系统很好的兼容,以下来部署Spark集群

  集群环境:3节点 Master:bigdata1 Slaves:bigdata2,bigdata3

  Master负责任务的分发,与集群状态的显示

  Slaves运行具体的Worker任务,最后交由Executor执行任务代码

  集群搭建之前,必须满足如下条件:

  1、集群主机名和hosts文件映射一一对应

  2、集群ssh免密登录配置

  3、集群每个节点防火墙关闭

  4、JDK正确安装

  5、Scala正确安装

  6、Hadoop集群安装,因为Spark存储层要用到HDFS,所以应该至少保证HDFS服务的正常运行,hadoop集群可以在yarn上,也可以由zookeeper协调,这个都没问题,最重要的是hadoop集群能正常运行

  然后可以开始安装Spark,Spark官方网站是:http://spark.apache.org/,直接去官方网站下载spark安装包即可,这里安装的是1.x的最新版1.6.2,2.0是刚出来,暂时没有使用,包名为:spark-1.6.2-bin-hadoop2.6.tgz 这里已经安装的hadoop版本为hadoop 2.6.0,下载之后上传至服务器准备安装

  在bigdata1 Master节点执行如下命令解压,目录可以自定义,这里安装位置是/bigdata/spark

tar -xvzf spark-1.6.2-bin-hadoop2.6.tgz
mkdir /bigdata/spark
mv spark-1.6.2-bin-hadoop2.6 /bigdata/spark/
cd /bigdata/spark/spark-1.6.2-bin-hadoop2.6/

  配置文件目录在安装目录下的conf下,然后从默认模板中拷贝出要编辑的配置文件:

cp conf/spark-env.sh.template conf/spark-env.sh
cp conf/slaves.template conf/slaves

  网上说的可以添加spark到环境变量中,这个是为了方便启动和调试,是可选的,

  执行 vim conf/slaves 配置运行Worker任务的节点,和hadoop的slaves配置类似,单机环境中默认或者改为本地主机名,这里是bigdata2,bigdata3

  

  执行 vim conf/spark-env.sh 编辑spark启动加载脚本,在最后添加如下配置:

# JDK目录
export JAVA_HOME=/usr/local/java/jdk1.8.0_73
# Scala目录
export SCALA_HOME=/usr/local/scala/scala-2.11.8
# Master IP地址
export SPARK_MASTER_IP=192.168.0.187
# Worker运行内存
export SPARK_WORKER_MEMORY=1024m
# hadoop配置文件目录
export HADOOP_CONF_DIR=/bigdata/hadoop/hadoop-2.6.0/etc/hadoop

  集群中Worker运行内存可以适当调整3g~8g的范围

  然后发送Spark到集群其他节点:

scp -r spark/ bigdata2:/bigdata/
scp -r spark/ bigdata3:/bigdata/

  最后启动Spark集群,在Master节点执行: sbin/start-all.sh 可以启动整个集群,通过执行jps可以看到Master运行的进程是Master,Slaves节点运行的进程是Worker

  

  

  另外也可以通过在Master节点分别执行 sbin/start-master.sh  和 sbin/start-slaves.sh  分别调起来master和全部子节点的worker进程,这样可以根据不同需要有选择的调起集群中的服务

  Spark的服务都启动之后,访问Master地址可以打开相应的管理界面,地址就是:http://ip:8080,会看到界面如下:

  

  通过界面可以方便的查看并管理相应的端口号,配置项,Workers节点,正在运行的应用任务等

  通过执行 bin/spark-shell 或者指定相应的参数 bin/spark-shell --executor-memory 1g --driver-memory 1g --master spark://bigdata1:7077 可以进入scala交互式命令行界面,在这里可以进行一些测试等

  

  到这里,Spark集群就部署完毕了

Linux环境下Spark集群搭建相关推荐

  1. Linux环境下Redis集群实践

    环境:centos 7 一.编译及安装redis源码 源码地址:redis版本发布列表 cd redis-3.2.8 sudo make && make install 二.创建节点 ...

  2. Nginx+Tomcat windows环境下简单集群搭建

    通俗点将,负载均衡就是因为访问流量太大,导致项目访问不流畅.甚至宕掉,所以通过一种分流的方式来缓解这种情况. 一.       工具 nginx-1.8.0 apache-tomcat-6.0.33 ...

  3. Windows家庭版下基于Docker的hadoop、Spark集群搭建

    Windows家庭版下基于Docker的hadoop.Spark集群搭建 目录 Windows家庭版下基于Docker的hadoop.Spark集群搭建 1.实验目的 2.实验平台 3.实验内容和要求 ...

  4. Centos7环境下etcd集群的搭建

    Centos7环境下etcd集群的搭建一.简介"A highly-available key value store for shared configuration and service ...

  5. 环境搭建:Windows系统下Nacos集群搭建

    环境搭建:Windows系统下Nacos集群搭建 一.环境准备 名称 版本 下载地址 nacos NACOS 1.2.0 下载地址,提取码:5555 MySQL mysql Ver 14.14 Dis ...

  6. Hadoop/Spark集群搭建图文全攻略

    Hadoop/Spark集群搭建图文全攻略 一.安装VMware 二.创建Linux虚拟机 三.CentOS-7安装 四.Linux系统环境配置 五.其他配置 六.虚拟机克隆 七.jdk安装 八.Zo ...

  7. Hadoop集群+Spark集群搭建基于VMware虚拟机教程+安装运行Docker

    Hadoop集群+Spark集群搭建+安装运行Docker 目录 一.准备工作 二.在虚拟机上安装CentOS 7 三.hdfs的环境准备 四.hdfs配置文件的修改 五.克隆(复制虚拟机) 六.制作 ...

  8. Spark-----Spark 与 Hadoop 对比,Spark 集群搭建与示例运行,RDD算子简单入门

    目录 一.Spark 概述 1.1. Spark是什么 1.2. Spark的特点(优点) 1.3. Spark组件 1.4. Spark和Hadoop的异同 二.Spark 集群搭建 2.1. Sp ...

  9. 基于Hadoop集群的Spark集群搭建

    基于Hadoop集群的Spark集群搭建 注:Spark需要依赖scala,因此需要先安装scala 一. 简单叙述一下scala的安装 (1)下载scala软件安装包,上传到集群 (2)建立一个用于 ...

最新文章

  1. python3 异步 asyncio 动态添加任务
  2. tableau 如何发布到public
  3. IBM Rational上海大会印象
  4. 知识图谱java实现_知识图谱:neo4j(四)Java API
  5. 如何将图片一键重命名按顺序_如何“智慧”地管理文件?(一次付出,终身受益)...
  6. 类似腾讯手机管家应用android源码
  7. 浏览器URL中 encodeURIComponent()加密和decodeURIComponent()解码
  8. 操作系统_实验报告_Lab1
  9. 简单、便捷、好用的财务报表制作软件有哪些?这篇就有推荐
  10. Linux操作系统安装ELK stack日志管理系统--(1)Logstash和Filebeat的安装与使用
  11. matlab绘制图像的直方图、杆状图和折线图等
  12. B1105 Spiral Matrix (画图)
  13. 像CFO一样思考(1)- 给私域运营算个帐
  14. HDUOJ---汉洛塔IX
  15. MyEclipse 2014 破解失败,cracker.jar文件打开闪退
  16. 58 Hive案例(访问时长统计)
  17. 家居家装行业人群洞察白皮书.pdf
  18. huffman树【严蔚敏】
  19. 十二.vue-resourse实现get,post,jsonp请求
  20. will和would,can和could的区别

热门文章

  1. 首个云上量子加密通讯服务实现
  2. RemoteWebDriver使用说明
  3. Qt COM组件导出源文件
  4. xshell上传本地文件命令_XShell上传、下载本地文件到linux服务器
  5. 最短哈密顿图(状态dp)
  6. 全球与中国自动割草机市场深度研究分析报告
  7. java 处理 jSignature 电子签名后 base64 展示出来图片为黑色背景(将黑色背景改成白色)
  8. 机械工业部标准阀门型号编制方法
  9. 绿松和蓝松_绿松VS蓝松,傻傻分不清的你,可别买假了!
  10. Dontplaywithkitty.io链游平台3000 创世猫NFT 2小时内全部售罄