Spark伪分布式搭建教程(Standalone:Master+Slave)

分析:
1.配置好IP
2.修改好主机名
3.做好IP映射
4.关闭防火墙
5.安装好Java(请参考Linux-Java安装文档,如果已经安装可以忽略)
6.安装好Hadoop(请参考Hadoop伪分布式搭建或Hadoop完全分布式)
7.安装scala
8.配置SSH
9.配置伪分布式集群
软件提取链接:https://pan.baidu.com/s/1oxBcv6xRavVtxmBPzEWHuQ 提取码:1000

1.IP配置

[root@localhost ~]#vim /etc/sysconfig/network-scripts/ifcfg-ens33
#修改
ONBOOT=yes
BOOTPROTO=static
#添加,网关以当前实际网关为主
IPADDR=192.168.15.100
NETMASK=255.255.255.0
GATEWAY=192.168.15.2
DNS1=114.114.114.114
DNS2=192.168.15.2
[root@localhost ~]#ifconfig

如果使用ifconfig命令能看到inet显示为192.168.17.100即IP配置成功。此处我使用的IP为104请以实际配置为主。

2.修改好主机名

[root@localhost ~] # vim /etc/sysconfig/network
#删除原有内容,添加如下字段
HOSTNAME=hadoop
[root@localhost ~] #hostname hadoop
[root@localhost ~] #exit

3.做好IP映射

[root@hadoop ~] # vim /etc/hosts
#添加一行
192.168.15.100 hadoop

4.关闭防火墙

[root@hadoop ~] #systemctl stop firewalld.service
[root@hadoop ~] #systemctl disable firewalld.service

5.Java安装

https://blog.csdn.net/qq_50835159/article/details/117632199?spm=1001.2014.3001.5501

6.Hadoop安装并启动

伪分布式:
https://blog.csdn.net/qq_50835159/article/details/117657708?spm=1001.2014.3001.5502
完全分布式:
https://blog.csdn.net/qq_50835159/article/details/117595062?spm=1001.2014.3001.5502

7.安装Scala

https://blog.csdn.net/qq_50835159/article/details/117660529?spm=1001.2014.3001.5502

8.配置SSH免密登入

[root@hadoop ~]#cd .ssh
如果显示没有就执行 mkdir .ssh再执行cd .ssh
[root@hadoop .ssh] #ssh-keygen -t rsa
三下回车
[root@hadoop .ssh] #ssh-copy-id hadoop
输入yes,然后输入密码就完成了免密登入

9.配置Spark伪分布式

(软件安装包统一发/opt/software)
[root@hadoop software]#tar -zxvf spark-3.0.1-bin-hadoop2.7.tgz -C /usr/local/
配置Spark全局变量引入Spark
[root@hadoop software]#vim /etc/profile
export SPARK_HOME=/usr/local/spark-3.0.1-bin-hadoop2.7
export PATH=$SPARK_HOME/bin:$PATH
export PATH=$SPARK_HOME/sbin:$PATH
[root@hadoop software]#source /etc/profile
拷贝spark-env.sh.template为spark-env.sh,配置spark-env.sh
[root@hadoop software]#cd /opt/module/spark-3.0.1-bin-hadoop2.7/conf
[root@ hadoop conf]#cp spark-env.sh.template spark-env.sh
[root@ hadoop conf]#vim spark-env.sh
#添加如下内容
#引入java
export JAVA_HOME=/usr/local/jdk1.8.0_144
#引入scala
export SCALA_HOME=/usr/local/scala-2.11.12
#引入hadoop
export HADOOP_HOME=/usr/local/hadoop-2.7.2
#引入hadoop配置文件
export HADOOP_CONF_DIR=/usr/local/hadoop-2.7.2/etc/hadoop
#指定Master节点
export SPARK_MASTER_IP=hadoop
#指定work工作节点
export SPARK_LOCAL_IP=hadoop
#指定Master 访问端口
export SPARK_MASTER_PORT=7077
启动spark
[root@ hadoop conf]#cd ..
[root@ hadoop spark-3.0.1-bin-hadoop2.7]#cd sbin/
[root@ hadoop sbin]#./start-all.sh
[root@ hadoop sbin]#jps
10515 Master
9668 NameNode
11668 Jps
9945 SecondaryNameNode
10186 NodeManager
10091 ResourceManager
10587 Worker
9791 DataNode

Spark-Yarn

配置Hadoop yarn-site.xml配置文件,因为要使用Yarn资源调度引擎
[root@ hadoop ~]#cd /usr/local/hadoop-2.7.2/etc/hadoop
[root@ hadoop hadoop]#vim yarn-site.xml
<!-- 是否启动一个线程检查每个任务正使用的物理内存量,如果任务超出分配值,则直接>将其杀死,默认true-->
<property><name>yarn.nodemanager.pmem-check-enabled</name><value>false</value>
</property>
<!-- 是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出内存分配值,则>直接将其杀死,默认true-->
<property><name>yarn.nodemanager.vmem-check-enabled</name><value>false</value>
</property>
拷贝spark-env.sh.template为spark-env.sh,配置spark-env.sh
[root@ hadoop hadoop]#cd /usr/local/spark-3.0.1-bin-hadoop2.7/conf
[root@ hadoop conf]#cp spark-env.sh.template spark-env.sh
[root@ hadoop conf]#vim spark-env.sh
export JAVA_HOME=/usr/local/jdk1.8.0_144
export HADOOP_CONF_DIR=/usr/local/hadoop-2.7.2/etc/hadoop

Spark伪分布式搭建与SparkYarn搭建相关推荐

  1. Spark基础学习笔记04:搭建Spark伪分布式环境

    文章目录 零.本讲学习目标 一.搭建伪分布式Hadoop (一)登录ied虚拟机 (二)配置免密登录 1.生成密钥对 2.将生成的公钥发送到本机(虚拟机ied) 3.验证虚拟机是否能免密登录本机 (三 ...

  2. Hadoop伪分布式集群的搭建

    一.准备虚拟机 1.从网上将VMware下载下来 https://www.vmware.com/content/dam/digitalmarketing/vmware/en/images/galler ...

  3. Spark学习之路 (五)Spark伪分布式安装

    一.JDK的安装 JDK使用root用户安装 1.1 上传安装包并解压 [root@hadoop1 soft]# tar -zxvf jdk-8u73-linux-x64.tar.gz -C /usr ...

  4. Spark之伪分布式搭建、伪分布式Hadoop、Hive安装

    2019独角兽企业重金招聘Python工程师标准>>> 怎么在本地安装Spark,这里就不再描述了. List-1 #在SPARK_HOME/conf下 >cp slaves. ...

  5. Hadoop单机/伪分布式集群搭建(新手向)

    此文已由作者朱笑笑授权网易云社区发布. 欢迎访问网易云社区,了解更多网易技术产品运营经验. 本文主要参照官网的安装步骤实现了Hadoop伪分布式集群的搭建,希望能够为初识Hadoop的小伙伴带来借鉴意 ...

  6. hadoop伪分布式环境的搭建配置整理

    本篇是整理了搭建hadoop环境需要的一些配置和步骤,其中有些配置是完全分布式的时候才用的,这里注意需要注意. linux系统设置 1,配置或者搭建集群过程中,全部用root账户登入 2,修改主机名方 ...

  7. 伪分布式集群、完全分布式搭建步骤详情

    ** 伪分布式集群.完全分布式搭建步骤详情 4.1 伪分布式模式介绍 1.特点- 在一台机器上安装,使用的是分布式思想,即分布式文件系统,非本地文件系统.- Hdfs涉及到的相关守护进程(nameno ...

  8. Hadoop伪分布式集群的安装部署

    Hadoop伪分布式集群的安装部署Hadoop伪分布式集群的安装部署 首先可以为Linux虚拟机搭建起来的最初状态做一个快照,方便后期搭建分布式集群时多台Linux虚拟机的准备. 一.如何为虚拟机做快 ...

  9. 大数据学习笔记12:搭建伪分布式Spark

    文章目录 一.准备工作 二.搭建伪分布式spark 1.下载spark-2.4.4-bin-hadoop2.7压缩包 2.将spark压缩包上传到虚拟机 3.将spark压缩包解压到指定位置 4.修改 ...

最新文章

  1. 使用CoreData的轻量级自动数据迁移
  2. Alluxio : 开源分布式内存文件系统
  3. #error使用分析
  4. I/O复用函数的使用——select
  5. 如何使用vs将asp.net core项目添加容器支持并发布docker镜像到私有dockerhub和添加k8s/helm管理...
  6. Google Authenticator:将其与您自己的Java身份验证服务器配合使用
  7. MapInfo开发心得——控件篇
  8. 外贸电子商务软件必须提供的SEO特性
  9. 中国历史上最牛气的十大豪言壮语
  10. Android shell命令查询ip,网关,DNS
  11. Codejock Xtreme ToolkitPro MFC 使用
  12. 史上最全java自动化测试工具汇总
  13. (六)Java垃圾回收机制(附带代码示例)
  14. 8、鼠标控制与32位模式切换
  15. NetSpeeder V3.70 绿色特别版
  16. JQUERY的使用,获取ul,li里面的值
  17. arm linux 内核崩溃,用sysrq-trigger实现ARM Linux一键内核崩溃、一键关机、一键dump信息等...
  18. CF1367C - Social Distance
  19. 云堡垒机的作用_阿里云堡垒机详解
  20. Megacli常用命令汇总

热门文章

  1. docker+nginx重来部署vue项目
  2. STM32 之 MDA
  3. 寒假算法训练1-J(分棍子,求最长棍子的数量,另外学习map的排序方法)
  4. 简单的python画图小实例
  5. 重磅|中国PostgreSQL分会与中软国际全面战略合作协议签订
  6. PCL入门系列 —— StatisticalOutlierRemoval 点云统计滤波
  7. 2020年最新Django经典面试问题与答案汇总(下)-大江狗整理
  8. SQL 日期和时间处理函数
  9. SRCK5 SR3LC SR3YZ SREJP SR3L8
  10. 基于区块链的供应链金融系统解决方案—我的程序员学院课程