Spark伪分布式搭建与SparkYarn搭建
Spark伪分布式搭建教程(Standalone:Master+Slave)
分析:
1.配置好IP
2.修改好主机名
3.做好IP映射
4.关闭防火墙
5.安装好Java(请参考Linux-Java安装文档,如果已经安装可以忽略)
6.安装好Hadoop(请参考Hadoop伪分布式搭建或Hadoop完全分布式)
7.安装scala
8.配置SSH
9.配置伪分布式集群
软件提取链接:https://pan.baidu.com/s/1oxBcv6xRavVtxmBPzEWHuQ 提取码:1000
1.IP配置
[root@localhost ~]#vim /etc/sysconfig/network-scripts/ifcfg-ens33
#修改
ONBOOT=yes
BOOTPROTO=static
#添加,网关以当前实际网关为主
IPADDR=192.168.15.100
NETMASK=255.255.255.0
GATEWAY=192.168.15.2
DNS1=114.114.114.114
DNS2=192.168.15.2
[root@localhost ~]#ifconfig
如果使用ifconfig命令能看到inet显示为192.168.17.100即IP配置成功。此处我使用的IP为104请以实际配置为主。
2.修改好主机名
[root@localhost ~] # vim /etc/sysconfig/network
#删除原有内容,添加如下字段
HOSTNAME=hadoop
[root@localhost ~] #hostname hadoop
[root@localhost ~] #exit
3.做好IP映射
[root@hadoop ~] # vim /etc/hosts
#添加一行
192.168.15.100 hadoop
4.关闭防火墙
[root@hadoop ~] #systemctl stop firewalld.service
[root@hadoop ~] #systemctl disable firewalld.service
5.Java安装
https://blog.csdn.net/qq_50835159/article/details/117632199?spm=1001.2014.3001.5501
6.Hadoop安装并启动
伪分布式:
https://blog.csdn.net/qq_50835159/article/details/117657708?spm=1001.2014.3001.5502
完全分布式:
https://blog.csdn.net/qq_50835159/article/details/117595062?spm=1001.2014.3001.5502
7.安装Scala
https://blog.csdn.net/qq_50835159/article/details/117660529?spm=1001.2014.3001.5502
8.配置SSH免密登入
[root@hadoop ~]#cd .ssh
如果显示没有就执行 mkdir .ssh再执行cd .ssh
[root@hadoop .ssh] #ssh-keygen -t rsa
三下回车
[root@hadoop .ssh] #ssh-copy-id hadoop
输入yes,然后输入密码就完成了免密登入
9.配置Spark伪分布式
(软件安装包统一发/opt/software)
[root@hadoop software]#tar -zxvf spark-3.0.1-bin-hadoop2.7.tgz -C /usr/local/
配置Spark全局变量引入Spark
[root@hadoop software]#vim /etc/profile
export SPARK_HOME=/usr/local/spark-3.0.1-bin-hadoop2.7
export PATH=$SPARK_HOME/bin:$PATH
export PATH=$SPARK_HOME/sbin:$PATH
[root@hadoop software]#source /etc/profile
拷贝spark-env.sh.template为spark-env.sh,配置spark-env.sh
[root@hadoop software]#cd /opt/module/spark-3.0.1-bin-hadoop2.7/conf
[root@ hadoop conf]#cp spark-env.sh.template spark-env.sh
[root@ hadoop conf]#vim spark-env.sh
#添加如下内容
#引入java
export JAVA_HOME=/usr/local/jdk1.8.0_144
#引入scala
export SCALA_HOME=/usr/local/scala-2.11.12
#引入hadoop
export HADOOP_HOME=/usr/local/hadoop-2.7.2
#引入hadoop配置文件
export HADOOP_CONF_DIR=/usr/local/hadoop-2.7.2/etc/hadoop
#指定Master节点
export SPARK_MASTER_IP=hadoop
#指定work工作节点
export SPARK_LOCAL_IP=hadoop
#指定Master 访问端口
export SPARK_MASTER_PORT=7077
启动spark
[root@ hadoop conf]#cd ..
[root@ hadoop spark-3.0.1-bin-hadoop2.7]#cd sbin/
[root@ hadoop sbin]#./start-all.sh
[root@ hadoop sbin]#jps
10515 Master
9668 NameNode
11668 Jps
9945 SecondaryNameNode
10186 NodeManager
10091 ResourceManager
10587 Worker
9791 DataNode
Spark-Yarn
配置Hadoop yarn-site.xml配置文件,因为要使用Yarn资源调度引擎
[root@ hadoop ~]#cd /usr/local/hadoop-2.7.2/etc/hadoop
[root@ hadoop hadoop]#vim yarn-site.xml
<!-- 是否启动一个线程检查每个任务正使用的物理内存量,如果任务超出分配值,则直接>将其杀死,默认true-->
<property><name>yarn.nodemanager.pmem-check-enabled</name><value>false</value>
</property>
<!-- 是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出内存分配值,则>直接将其杀死,默认true-->
<property><name>yarn.nodemanager.vmem-check-enabled</name><value>false</value>
</property>
拷贝spark-env.sh.template为spark-env.sh,配置spark-env.sh
[root@ hadoop hadoop]#cd /usr/local/spark-3.0.1-bin-hadoop2.7/conf
[root@ hadoop conf]#cp spark-env.sh.template spark-env.sh
[root@ hadoop conf]#vim spark-env.sh
export JAVA_HOME=/usr/local/jdk1.8.0_144
export HADOOP_CONF_DIR=/usr/local/hadoop-2.7.2/etc/hadoop
Spark伪分布式搭建与SparkYarn搭建相关推荐
- Spark基础学习笔记04:搭建Spark伪分布式环境
文章目录 零.本讲学习目标 一.搭建伪分布式Hadoop (一)登录ied虚拟机 (二)配置免密登录 1.生成密钥对 2.将生成的公钥发送到本机(虚拟机ied) 3.验证虚拟机是否能免密登录本机 (三 ...
- Hadoop伪分布式集群的搭建
一.准备虚拟机 1.从网上将VMware下载下来 https://www.vmware.com/content/dam/digitalmarketing/vmware/en/images/galler ...
- Spark学习之路 (五)Spark伪分布式安装
一.JDK的安装 JDK使用root用户安装 1.1 上传安装包并解压 [root@hadoop1 soft]# tar -zxvf jdk-8u73-linux-x64.tar.gz -C /usr ...
- Spark之伪分布式搭建、伪分布式Hadoop、Hive安装
2019独角兽企业重金招聘Python工程师标准>>> 怎么在本地安装Spark,这里就不再描述了. List-1 #在SPARK_HOME/conf下 >cp slaves. ...
- Hadoop单机/伪分布式集群搭建(新手向)
此文已由作者朱笑笑授权网易云社区发布. 欢迎访问网易云社区,了解更多网易技术产品运营经验. 本文主要参照官网的安装步骤实现了Hadoop伪分布式集群的搭建,希望能够为初识Hadoop的小伙伴带来借鉴意 ...
- hadoop伪分布式环境的搭建配置整理
本篇是整理了搭建hadoop环境需要的一些配置和步骤,其中有些配置是完全分布式的时候才用的,这里注意需要注意. linux系统设置 1,配置或者搭建集群过程中,全部用root账户登入 2,修改主机名方 ...
- 伪分布式集群、完全分布式搭建步骤详情
** 伪分布式集群.完全分布式搭建步骤详情 4.1 伪分布式模式介绍 1.特点- 在一台机器上安装,使用的是分布式思想,即分布式文件系统,非本地文件系统.- Hdfs涉及到的相关守护进程(nameno ...
- Hadoop伪分布式集群的安装部署
Hadoop伪分布式集群的安装部署Hadoop伪分布式集群的安装部署 首先可以为Linux虚拟机搭建起来的最初状态做一个快照,方便后期搭建分布式集群时多台Linux虚拟机的准备. 一.如何为虚拟机做快 ...
- 大数据学习笔记12:搭建伪分布式Spark
文章目录 一.准备工作 二.搭建伪分布式spark 1.下载spark-2.4.4-bin-hadoop2.7压缩包 2.将spark压缩包上传到虚拟机 3.将spark压缩包解压到指定位置 4.修改 ...
最新文章
- 使用CoreData的轻量级自动数据迁移
- Alluxio : 开源分布式内存文件系统
- #error使用分析
- I/O复用函数的使用——select
- 如何使用vs将asp.net core项目添加容器支持并发布docker镜像到私有dockerhub和添加k8s/helm管理...
- Google Authenticator:将其与您自己的Java身份验证服务器配合使用
- MapInfo开发心得——控件篇
- 外贸电子商务软件必须提供的SEO特性
- 中国历史上最牛气的十大豪言壮语
- Android shell命令查询ip,网关,DNS
- Codejock Xtreme ToolkitPro MFC 使用
- 史上最全java自动化测试工具汇总
- (六)Java垃圾回收机制(附带代码示例)
- 8、鼠标控制与32位模式切换
- NetSpeeder V3.70 绿色特别版
- JQUERY的使用,获取ul,li里面的值
- arm linux 内核崩溃,用sysrq-trigger实现ARM Linux一键内核崩溃、一键关机、一键dump信息等...
- CF1367C - Social Distance
- 云堡垒机的作用_阿里云堡垒机详解
- Megacli常用命令汇总