【一个很疑惑的问题】为什么我们一直在反复做一个操作:就是scp拷贝过来拷贝过去?
【答案】这是为了将文件或目录的权限修改成hadoop所属组。

一. 下载Spark安装包并传给mster机器,使权限是hadoop

①在slave1机器上下载Spark(进入官网下载更快)

②解压安装包

    tar -zxvf spark-1.6.3-bin-hadoop2.6.tgz -C /data

③把slave1机器上的解压后的spark拷贝到master机器上

先进入/data目录下,打开终端,不用修改用户再:
scp -r spark-1.6.3-bin-hadoop2.6/ hadoop@master:/data/

④删除slave1机器上的spark-1.6.3-bin-hadoop2.6

sudo rm -r /data/spark-1.6.3-bin-hadoop2.6
到现在为止,slave1机器上的spark-1.6.3-bin-hadoop2.6安装包已经被删除;只在master机器上有spark-1.6.3-bin-hadoop2.6安装包,且权限是
hadoop。
可以进行下面的Spark配置了!

==========

二 .配置 spark(涉及到的配置文件有以下几个:)

在master机器上,新建下面文件:

先su hadoopsudo mkdir  /data/spark_data
sudo chmod -R 777 /data/spark_datasudo mkdir  /data/spark_data/spark_works
sudo chmod -R 777 /data/spark_data/spark_workssudo mkdir  /data/spark_data/history
sudo chmod -R 777 /data/spark_data/historysudo mkdir  /data/spark_data/history/event-log
sudo chmod -R 777 /data/spark_data/history/event-logsudo mkdir  /data/spark_data/history/spark-events
sudo chmod -R 777 /data/spark_data/history/spark-events再把在master创建好的上面的文件拷贝给slave机器:
在 master 机器上:
先切换到hadoop用户
su hadoopscp -r /data/spark_data hadoop@slave1:/data
scp -r /data/spark_data hadoop@slave2:/data
此时,在slave机器上就产生了/data/spark_data目录,查看权限是hadoop删除上面再master机器上创建的目录(在master机器上执行)sudo rm -r /data/spark_data
从slave1机器上复制一份给master(在slave1机器上执行)scp -r /data/spark_data hadoop@master:/data
1. ${SPARK_HOME}/conf/spark-env.sh
2. ${SPARK_HOME}/conf/slaves
3. ${SPARK_HOME}/conf/spark-defaults.conf这三个文件都是由原始的 template 文件复制过来的,比如:
先进入conf目录下,打开终端,再:
su hadoopcp spark-env.sh.template spark-env.shcp slaves.template slavescp spark-env.sh.template spark-env.sh
sudo chmod -R  777 ../*

配置文件 1:sudo gedit spark-env.sh

【重点注意】SPARK_MASTER_IP=192.168.1.10一定要修改成自己的master地址
注意:需要在本地创建/data/spark_data/spark_works 目录JAVA_HOME=/data/jdk1.8.0_111
SCALA_HOME=/data/scala-2.11.8
SPARK_MASTER_IP=192.168.1.10
HADOOP_CONF_DIR=/data/hadoop-2.6.5/etc/hadoop
# shuffled以及 RDD的数据存放目录
SPARK_LOCAL_DIRS=/data/spark_data
# worker端进程的工作目录
SPARK_WORKER_DIR=/data/spark_data/spark_works

配置文件 2:sudo gedit slaves

去掉最后一行的localhost后,在最后一行加上下面内容
master
slave1
slave2

配置文件 3:sudo gedit spark-defaults.conf

注意:需要在本地创建/data/spark_data/history/event-log、/data/spark_data/history/spark-events
spark.master spark://master:7077
spark.serializer org.apache.spark.serializer.KryoSerializer
spark.eventLog.enabled true
spark.eventLog.dir file:///data/spark_data/history/event-log
spark.history.fs.logDirectory file:///data/spark_data/history/spark-events
spark.eventLog.compress true

===

三 . 复制到其他节点

在 master 上:1. scp -r /data/spark* hadoop@slave1:/data2. scp -r /data/spark* hadoop@slave2:/data 发现在 slave1 和slave2 上的/data目录下有spark-1.6.3-bin-hadoop2.6的目录,
查看权限是hadoop组。spark*实际上也把创建的目录/data/spark_data全部拷贝过去了。

四 . 设置环境变量

在master机器上:su hadoopsudo gedit ~/.bashrc
将以下内容加入到~/.bashrc 文件中,
export SPARK_HOME=/data/spark-1.6.3-bin-hadoop2.6
export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH然后执行以下命令:source ~/.bashrc再把master机器上的~/.bashrc文件拷贝到slave机器上:(在hadoop用户下)
su hadoop   #切换到hadoop用户scp -r ~/.bashrc hadoop@slave1:~/
scp -r ~/.bashrc hadoop@slave2:~/

=======================================

=======================================

5. 启动验证

在master机器上

1)启动 masterstart-master.sh下图说明在 master 节点上成功启动 Master 进程:

在master机器上

2)启动 slavestart-slaves.shjps

在slave机器上

执行jps

    上面的图片说明在每台机器上都成功启动了 Worker 进程。

3)访问 WebUI

    在 master、slave1 和 slave2 这三台中任意一台机器上的浏览器中输入:http://master:8080/,
看到如下图片,就说明我们的 spark 集群安装成功了。

===

趟过的坑

    配置 core-site.xml 和 hdfs-site.xml 文件时所指定的本地目录一定要自己
创建,否则在执行 玩格式化 hdfs 后,启动 hdfs 会丢失进程。

二、安装Spark集群相关推荐

  1. 学习笔记Spark(二)—— Spark集群的安装配置

    一.我的软件环境 二.Spark集群拓扑 2.1.集群规模 192.168.128.10 master 1.5G ~2G内存.20G硬盘.NAT.1~2核 : 192.168.128.11 node1 ...

  2. 使用Docker安装Spark集群(带有HDFS)

    本实验在CentOS 7中完成 第一部分:安装Docker 这一部分是安装Docker,如果机器中已经安装过Docker,可以直接跳过 [root@VM-48-22-centos ~]# system ...

  3. 基于Hadoop安装spark集群

    基于Hadoop的spark环境搭建 已有环境情况 Hadoop HA Java 软件版本 Hadoop 2.7.2 Java 1.8.0_301 Scala 2.11.8 Spark 2.1.0 下 ...

  4. 安装spark集群,并成功运行

    基于上一篇的hadoop成功运行后,进一步启动spark集群: 上图中的内容,slave主机中也需要相应的设置 上图就是成功运行的结果:

  5. 第一章,安装spark集群,测试和运行wordcount 案例

    1.1下载spark 地址:https://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-2.3.0/ 1.2上传解压: xiaoye@ubuntu: ...

  6. Spark集群安装和WordCount编写

    一.Spark概述 官网:http://spark.apache.org/ Apache Spark™是用于大规模数据处理的统一分析引擎.为大数据处理而设计的快速通用的计算引擎.Spark加州大学伯克 ...

  7. Spark-----Spark 与 Hadoop 对比,Spark 集群搭建与示例运行,RDD算子简单入门

    目录 一.Spark 概述 1.1. Spark是什么 1.2. Spark的特点(优点) 1.3. Spark组件 1.4. Spark和Hadoop的异同 二.Spark 集群搭建 2.1. Sp ...

  8. spark集群详细搭建过程及遇到的问题解决(三)

    上篇文章中讲完了如何配置免密码登录的问题,现在讲述下,三个节点的环境配置过程. 所需要的hadoop-2.7.3.tar.gz . jdk-7u79-linux-x64.tar.gz . scala- ...

  9. Hadoop集群+Spark集群搭建基于VMware虚拟机教程+安装运行Docker

    Hadoop集群+Spark集群搭建+安装运行Docker 目录 一.准备工作 二.在虚拟机上安装CentOS 7 三.hdfs的环境准备 四.hdfs配置文件的修改 五.克隆(复制虚拟机) 六.制作 ...

最新文章

  1. csdn如何在开头生成目录
  2. 比特币布道者Roger Ver是如何被污蔑成骗子的
  3. 数据库内部存储结构探索
  4. Kafka面试题全套整理 | 划重点要考!
  5. 前端学习之路之CSS (一)
  6. TRACERT命令及用法
  7. HDFS的架构和设计要点
  8. 3.Oracle中的函数
  9. 温州大学c语言作业布置的网站,2016年温州大学物理与电子信息工程学院综合卷之C语言程序设计复试笔试仿真模拟题...
  10. win7计算机里没有网络图标,Win7网络图标不见了?找回网络图标的方法
  11. 计算机联锁控制系统翻译成英语,计算机联锁
  12. python蜂鸣器_Python与硬件学习笔记:蜂鸣器(转)
  13. 002输出一个正方形
  14. 众里寻她千百度,那人却在优衣库。
  15. 编译原理笔记(二)之词法分析
  16. 艾司博讯:拼多多商品怎样多件一起付款?
  17. [更新幻灯]1剔除“伪创新”和“无领域”的领域驱动设计
  18. XPS测试表面及表面分析技术
  19. “会员制营销”和“EMAIL营销”培训方案
  20. 亚马逊卖家分享品牌备案到买家号的流程

热门文章

  1. TensorFlow Lite+Android,Google要搞的大事情
  2. 关于vs2010编译程序一闪就没的解决办法
  3. 从flink-example分析flink组件(3)WordCount 流式实战及源码分析
  4. 手把手教你实现一个 AdaBoost
  5. Docker说了这么多 最全的一篇在这里
  6. group by 和 having(转载)
  7. MacDown的使用规范总结 96 卞泽 2016.04.08 15:05* 字数 1273 阅读 4295评论 10喜欢 34 MacDown是什么? 请点击here MacDown下载地址,请点
  8. 将军令:数据安全平台建设实践
  9. UTXO 与账户余额模型
  10. 百度语音识别技术负责人李先刚:如何利用Deep CNN大幅提升识别准确率?