1 背景

由于我本人服务器有限,因此尝试进行单机安装,主要为了学习使用。

2 前提

hadoop安装依赖JDK。
我这里尝试用下JDK18看看。
下载地址:https://jdk.java.net/18/


这里咱们选择Linux/x64的版本。

2.1 配置JDK环境变量

# vi /etc/profile
在文件最后补充:
export JAVA_HOME=/usr/local/java/jdk-18.0.2.1
export PATH=$PATH:$JAVA_HOME/bin
配置生效
# source /etc/profile

4 下载

http://archive.apache.org/dist/hadoop/core/hadoop-3.3.4/
在这个链接,你可以看到各个版本,我这里选择的是3.3.4
在服务器上下载命令:

# wget http://archive.apache.org/dist/hadoop/core/hadoop-3.3.4/hadoop-3.3.4.tar.gz

5 解压

我这边上传到centos上,进行解压

# tar -zxvf hadoop-3.3.4.tar.gz

6 配置环境变量

同样,在/etc/profile文件中配置hadoop配置文件:

# vi /etc/profile在文件末尾补充:
export HADOOP_HOME=/usr/local/hadoop/hadoop-3.3.4
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin配置生效
# source /etc/profile

检查配置是否生效

[root@instance-1mfp2mc1 jdk-18.0.2.1]# hadoop version
Hadoop 3.3.4
Source code repository https://github.com/apache/hadoop.git -r a585a73c3e02ac62350c136643a5e7f6095a3dbb
Compiled by stevel on 2022-07-29T12:32Z
Compiled with protoc 3.7.1
From source with checksum fb9dd8918a7b8a5b430d61af858f6ec
This command was run using /usr/local/hadoop/hadoop-3.3.4/share/hadoop/common/hadoop-common-3.3.4.jar

7 配置Hadoop文件

所有配置文件都在etc目录下:hadoop-3.3.4/etc/hadoop,所以,我们只要关心这个目录下相关文件的配置。
各个配置文件说明如下:

配置文件的名称 作用
hadoop-env.sh 主要配置我们的java路径
core-site.xml 核心配置文件,主要定义了我们文件访问的格式 hdfs://
hdfs-site.xml 主要定义配置我们的hdfs的相关配置
mapred-site.xml 主要定义我们的mapreduce相关的一些配置
slaves 控制我们的从节点在哪里 datanode nodemanager在哪些机器上
yarm-site.xml 配置我们的resourcemanager资源调度

7.1 修改hadoop-env.sh

在文件末尾加上如下配置:

export JAVA_HOME=/usr/local/java/jdk-18.0.2.1
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root

7.2 修改 core-site.xml

将配置文件修改为:

<configuration><property><name>fs.defaultFS</name><value>hdfs://localhost:9820</value></property><property><name>hadoop.tmp.dir</name><value>/usr/hadoop/hadoopdata</value></property>
</configuration>

7.3 修改hdfs-site.xml

将配置文件修改为如下,表示只有一个副本,因为我这里是单机:

<configuration><property><name>dfs.replication</name><value>1</value></property>
</configuration>

7.4 修改mapred-site.xml

将配置文件修改为:

<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property>
</configuration>

7.5 修改yarn-site.xml

将配置文件修改为:

<configuration><!-- Site specific YARN configuration properties --><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.nodemanager.env-whitelist</name><value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value></property>
</configuration>

8 启动

8.1 对安装目录进行授权

# chmod -R 777 hadoop-3.3.4

8.2 格式化hdfs文件系统

# cd /usr/local/hadoop/hadoop-3.3.4/
# bin/hdfs namenode -format

8.3 启动hadoop

[root@instance-1mfp2mc1 hadoop-3.3.4]# sbin/start-all.sh
Starting namenodes on [localhost]
Last login: Wed Sep 14 21:45:50 CST 2022 from 218.76.52.120 on pts/3
Last failed login: Wed Sep 14 22:25:26 CST 2022 from 158.69.32.51 on ssh:notty
There were 10 failed login attempts since the last successful login.
localhost: Warning: Permanently added 'localhost' (ECDSA) to the list of known hosts.
localhost: root@localhost: Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password).
Starting datanodes
Last login: Wed Sep 14 22:28:54 CST 2022 on pts/3
localhost: root@localhost: Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password).
Starting secondary namenodes [instance-1mfp2mc1]
Last login: Wed Sep 14 22:28:54 CST 2022 on pts/3
instance-1mfp2mc1: Warning: Permanently added 'instance-1mfp2mc1,192.168.16.4' (ECDSA) to the list of known hosts.
instance-1mfp2mc1: root@instance-1mfp2mc1: Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password).
Starting resourcemanager
Last login: Wed Sep 14 22:28:55 CST 2022 on pts/3
Starting nodemanagers
Last login: Wed Sep 14 22:28:59 CST 2022 on pts/3
localhost: root@localhost: Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password).

不过,我这里失败了。

9 配置ssh并再次启动

操作步骤我就直接贴出来了:

[root@instance-1mfp2mc1 .ssh]# ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
Generating public/private rsa key pair.
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:5UT8ePM907UkTWhPTy5b8lExBD1Jbfs3woLFZaNwOY0 root@instance-1mfp2mc1
The key's randomart image is:
+---[RSA 3072]----+
|         .. +.*=+|
|         o.E B **|
|          *o* *+=|
|         +.++.o*=|
|        S +..ooB*|
|         . . oo=*|
|            . . =|
|                 |
|                 |
+----[SHA256]-----+
[root@instance-1mfp2mc1 .ssh]# cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
[root@instance-1mfp2mc1 .ssh]# ssh localhost
Activate the web console with: systemctl enable --now cockpit.socketLast failed login: Wed Sep 14 22:32:14 CST 2022 from 158.69.32.51 on ssh:notty
There were 4 failed login attempts since the last successful login.
Last login: Wed Sep 14 22:29:01 2022

再次启动下hadoop:

[root@instance-1mfp2mc1 ~]# cd /usr/local/hadoop/hadoop-3.3.4/
[root@instance-1mfp2mc1 hadoop-3.3.4]# sbin/start-all.sh
Starting namenodes on [localhost]
Last login: Wed Sep 14 22:32:53 CST 2022 from ::1 on pts/4
Last failed login: Wed Sep 14 22:34:01 CST 2022 from 91.240.118.222 on ssh:notty
There was 1 failed login attempt since the last successful login.
Starting datanodes
Last login: Wed Sep 14 22:35:12 CST 2022 on pts/4
Starting secondary namenodes [instance-1mfp2mc1]
Last login: Wed Sep 14 22:35:15 CST 2022 on pts/4
Starting resourcemanager
Last login: Wed Sep 14 22:35:20 CST 2022 on pts/4
Starting nodemanagers
Last login: Wed Sep 14 22:35:26 CST 2022 on pts/4
[root@instance-1mfp2mc1 hadoop-3.3.4]#

打开namenode,http://120.48.16.193:9870/,namenode的作用是存储元数据。

打开datanode,http://120.48.16.193:9864/,datanode作用是存储真正的数据。

大数据学习之一——Hadoop单机部署相关推荐

  1. 头歌Educoder云计算与大数据——实验二 Hadoop单机部署

    头歌Educoder云计算与大数据--实验二 Hadoop单机部署 答案在下面的链接里 https://blog.csdn.net/qq_20185737/article/details/114677 ...

  2. 大数据学习之hadoop——07阿里云服务器搭建集群以及遇到的问题解决办法

    在这段服务器搭建伪分布集群中我遇到了如下问题 1.进入远程连接界面却不知道密码 2.使用MobaXtem工具连接服务器失败 3.集群格式化失败 4.web访问失败 按照下面的所有步骤操作.以上的问题都 ...

  3. 2021-12-30大数据学习日志——Hadoop离线阶段——HDFS

    学习目标 理解分布式文件存储的概念与实现 掌握HDFS分块存储.副本机制等特性 学会shell操作HDFS 掌握HDFS读写流程 理解NameNode元数据管理机制 理解SecondaryNameNo ...

  4. 大数据学习之Hadoop生态圈(一)

    文章目录 前言 1.什么是hadoop 2.Hadoop起源 3.Hadoop的四大特点 4.Hadoop的三大发行版本 5.Hadoop的版本迭代 6.Hadoop的优点及缺点 7.Hadoop组成 ...

  5. 大数据学习1 - hadoop环境搭建及操作

    目录 目录 目录 一.什么是大数据? 二.什么是hadoop? 1.Hadoop核心组件 2.HDFS架构 3.MapReduce 3.Yarn架构 ​编辑 三.Hadoop的集群模式 1.完全分布模 ...

  6. 大数据学习笔记-hadoop(1)

    目录 前言 一.什么是大数据? 二.Ubuntu基础配置 1.安装Ubuntu20.04 2.修改系统语言为中文 3.修复vi编辑器 4.使用root账户 5.网络配置 6.配置源 7.更新 三.ss ...

  7. 大数据学习心得--hadoop框架

    前言 这是本人第一次写博客,技术不够,不敢妄谈一些太过前沿的技术的东西,想简单写写自己学过的东西,就当温故而知新了.本篇便以hadoop框架为主题来写点东西.众所周知,hadoop框架出现已久,had ...

  8. 离线轻量级大数据平台Spark之单机部署及Java开发

    1.Spark平台基本介绍 Spark 由加州大学伯克利分校 AMP 实验室 (Algorithms, Machines, and PeopleLab) 开发,可用来构建大型的.低延迟的数据分析应用程 ...

  9. hadoop jar包_【大数据学习】Hadoop的MR分布式开发小实战

    前提:hadoop集群应部署完毕. 一.实战科目 做一个Map Reduce分布式开发,开发内容为统计文件中的单词出现次数. 二.战前准备 1.本人在本地创建了一个用于执行MR的的文件,文件中有209 ...

最新文章

  1. PHP使用imagick扩展来合并图像
  2. css3弹性盒子模型之box-flex
  3. Navicat Premium 12连接Oracle时提示oracle library is not loaded的问题解决
  4. DataSet写入Excel
  5. git 工作流和git commit规范
  6. 安科 OJ 1190 连接电脑 (并查集)
  7. 软件测试 学习之路 CSS(一)
  8. sring-list-del-string-int:解析左右编码器的,和#号
  9. 今天终于结束了考试,不知道结果
  10. java spark命令行执行参数
  11. 2023计算机考研资料分享
  12. mysql多表join方式
  13. CIM一套完善的消息推送框架
  14. docker build报错解决:error creating overlay mount to .../overlay
  15. 史上最全:Jetbrains全家桶31款软件 分类+功能整理收集
  16. 【k.11】python+appium+雷电模拟器 app自动化测试 demo 教学
  17. Android关闭输入法
  18. python入门指南by许半仙百度云-《江火欲燃山》《这题超纲了》《Python入门指南》...
  19. ES的创建索引和文档操作
  20. RTK+GPS提高定位精度原理解析

热门文章

  1. 复古传奇服务器维护时间,复古传奇手游刷怪时间
  2. Tomato绕激活工具,支持两网信号/修复通知/游戏机
  3. 【应用C】C语言实现离散数学合式公式的递归判断
  4. 「对话GitOps之星」张晋涛:“肝帝”时不时也会拖更
  5. 拳王虚拟项目公社:如何通过SEO优化分析建网站赚钱?
  6. aes hex 加密
  7. 毕业就业之 -【湖北集中选调】
  8. 什么是教养?不给人制造麻烦,就是最好的教养。
  9. 客流分析江湖争端再起,新旧势力谁更胜一筹?...
  10. Maven:A cycle was detected in the build path of project 'xxx'. The cycle consists of projects {xx}