Hadoop hdfs配置
网络情况:网络为:192.168.80.0,网关为192.168.80.2,掩码为255.255.255.0,域名202.196.32.1。
Hadoop平台规划:三台linux主机使用64位CentOS7系统,采用最小化安装。用户为都为hadoop,master为192.168.80.5,slaver1为192.168.80.6,slaver2为192.168.80.7。
一、在主机master上配置
1.安装CentOS 7,选择最小化安装,其它可以采用默认。
2.(root)设置静态IP(*.*.*.5)地址:vi /etc/sysconfig/network-scripts/ifcfg-ens33
开户网络:ifup ens33
3.使用putty连接该主机。
(root)帐户添加帐户hadoop:useradd hadoop;passwd hadoop
(root) hostnamectl set-hostname master //修改主机名master:
exec bash //让修改的主机名立即生效
vi /etc/hosts //添加三个ip 和 三个主机名的对应关系。此处全部加上,复制后,另外两个机器就不用再添加了。
4.(root)关闭selinux和firewalld:
setenforce 0 //关闭运行的selinux
vi /etc/sysconfig/selinux //重启selinux不会再运行
systemctl stop firewalld //停止防火墙
systemctl disable firewalld //设置防火墙不开机自动启动
5.(root)修改yum源为ustc的源。
cd /etc/yum.repos.d //切换工作目录
mv CentOS-Base.repo CentOS-Base.repo.bak
vi CentOS-Base.repo //新建文件,添加内容参考:https://lug.ustc.edu.cn/wiki/mirrors/help/centos
yum makecache //更新yum
yum install rsync
yum install vim
yum install wget
6.(root)安装java运行环境。
1)下载jdk,需要到官方网络注册帐号,得到下载地址后进行下载:wget https://download.oracle.com/otn/java/jdk/8u211-b12/478a62b7d4e34b78b671c754eaaf38ab/jdk-8u211-linux-x64.tar.gz?AuthParam=1559117532_f52bb505fc34d78fff04ffb70d990331
2)tar –xvf jdk.tar.gz
3)vim /etc/profile,添加三行
export JAVA_HOME=/opt/jdk1.8.0_211
export CLASSPATH=.:$JAVA_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin
source /etc/profile,输入java -version,测试。
7.复制出另外两个系统,(root)修改主机名分别为slaver1和slaver2,并分别设置IP地址(*.*.*.6)和(*.*.*.7)。
可参考第2,3步。设置完成后,重启网络:ifdown ens33;ifup ens33
8.测试三个主机间的连接通连,使用ping master;ping slaver1;ping slaver2
二、配置免密登录
1.在三个主机上分别使用hadoop帐户分别运行ssh-keygen.
2.把slaver1的生成的公钥上传到master上。
scp id_rsa.pub hadoop@master:/home/hadoop/.ssh/slaver1.pub
3.把slaver2的生成的公钥上传到master上。
scp id_rsa.pub hadoop@master:/home/hadoop/.ssh/slaver2.pub
4.在master上把master、slaver1,slaver2的公钥合在一起:
cat id_rsa.pub slaver1.pub slaver2.pub >authorized_keys
5. chmod 600 authorized_keys //修改该文件的权限为600
6.把该文件再上传到slaver1和slaver2主机的相应位置。
scp authorized_keys hadoop@slaver1:/home/hadoop/.ssh/authorized_keys
scp authorized_keys hadoop@slaver2:/home/hadoop/.ssh/authorized_keys
7.(root) vim /etc/ssh/sshd_config
PubkeyAuthentication yes 去掉前面#
8.(root)把该配置文件上传到slaver1和slaver2主机的相应位置。
scp /etc/ssh/sshd_config root@slaver1:/etc/ssh/sshd_config
scp /etc/ssh/sshd_config root@slaver2:/etc/ssh/sshd_config
9.重启3个主机的sshd服务
systemctl restart sshd
10.使用hadoop帐户测试3个主机中,任意2个的免密登录是否正常(包括自己)。
ssh master;ssh slaver1;ssh slaver2
三、配置hadoop平台,使用hadoop用户在master主机上配置,配置好后传到另外两个主机。
1. 在/home/hadoop下: wget http://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-2.9.2/hadoop-2.9.2.tar.gz //下载hadoop软件包
2. tar -xvf hadoop-2.9.2.tar.gz
3.(root)配置环境变量:vim /etc/profile
export HADOOP_HOME=/home/hadoop/hadoop-2.9.2
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
以下操作是在hadoop帐户下。
4.(hadoop) cd hadoop-2.9.2; mkdir hdptmp //在hadoop-2.9.2下创建目录hdptmp
mkdir -p dfs/name;mkdir -p dfs/data
5. 配置hadoop-env.sh。
cd hadoop-2.9.2/etc/hadoop;vim hadoop-env.sh;
export JAVA_HOME=/opt/jdk1.8.0_211
export HADOOP_CONF_DIR=/home/hadoop/hadoop-2.9.2/etc/hadoop
source hadoop-env.sh
6. 配置core-site.xml
cd hadoop-2.9.2/etc/hadoop;vim core-site.xml;
在<configuration></configuration>节点中间加入。
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoop-2.9.2/hdptmp</value>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
7.配置hdfs-site.xml
cd hadoop-2.9.2/etc/hadoop;vim hdfs-site.xml;
在<configuration></configuration>节点中间加入。
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/hadoop/hadoop-2.9.2/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/hadoop/hadoop-2.9.2/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
8.配置mapred-site.xml.
cd hadoop-2.9.2/etc/hadoop; cp mapred-site.xml.template mapred-site.xml;vim mapred-site.xml;
在<configuration></configuration>节点中间加入。
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
9.配置yarn-site.xml
cd hadoop-2.9.2/etc/hadoop;vim yarn-site.xml;
在<configuration></configuration>节点中间加入。
<property>
<name>yarn.resouremanager.hostname</name>
<value>master </value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8031</value>
</property>
10.配置slaver,cd hadoop-2.9.2/etc/hadoop;vim slavers; 添加主机名。
slaver1
slaver2
11.把master上配置的hadoop相关文件传到另外两个机器上。
scp -r hadoop-2.9.2 hadoop@slaver1:/home/hadoop/
scp -r hadoop-2.9.2 hadoop@slaver2:/home/hadoop/
12.启动
在master服务器启动hadoop,从节点会自动启动,进入/home/hadoop/hadoop-2.9.2目录
(1)初始化输入命令, bin/hdfs namenode -format
(2)全部启动sbin/start-all.sh
(3)停止的话,输入命令,sbin/stop-all.sh
(4)输入命令jps。如果运行成功的话:master机器上应该是4个进程,slaver1和slaver2机器上应该是3个进程。
13、Web访问
(1)浏览器打开http://192.168.80.5:8088/ hadoop的管理
(2)浏览器打开http://192.168.80.5:50070/ hdfs文件系统管理
四、测试程序
1. hdfs dfs -mkdir /test; hdfs dfs -ls / 在分布式文件系统中创建目录test
2.touch words 在本地创建文件,随便输入一些单词,以空格分开。
3. hdfs dfs -put words /test 把words文件上传到分布式文件系统中
4./home/hadoop/hadoop-2.9.2/bin/hadoop jar /home/hadoop/hadoop-2.9.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.2.jar wordcount /test/words /test/output
或我的位置或任意你的hadoop位置
/usr/local/hadoop-2.8.2/bin/hadoop jar /usr/local/hadoop-2.8.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.2.jar wordcount /test/words /test/output
5.查看结果:
bin/hdfs dfs -cat /test/output/part-r-00000
Hadoop hdfs配置相关推荐
- hadoop hdfs 集群配置
配置过程 修改配置文件 hadoop的配置文件在:/root/apps/hadoop安装目录/etc/hadoop/ 修改hadoop-env.sh,配置java环境变量 export JAVA_HO ...
- 2.Hadoop HDFS 安装配置
1.将hadoop包解压放到/opt/hadoop下 2.配置 2.1.进入hadoop目录 2.2.编辑hadoop.env.sh文件 配置jdk环境变量 #vi etc/hadoop/hadoop ...
- Hadoop下载安装及HDFS配置教程
Hadoop下载安装及HDFS配置教程 前言 Hadoop是一个由Apache基金会所开发的分布式系统基础架构.用户可以在不了解分布式底层细节的情况下,开发分布式程序.充分利用集群的威力进行高速运算和 ...
- bboss hadoop hdfs大数据抽取工具
bboss大数据抽取工具功能特点如下: 实现db到hadoop hdfs数据导入功能,提供高效的分布式并行处理能力,可以采用数据库分区.按字段分区.分页方式并行批处理抽取db数据到hdfs文件系统中: ...
- HDFS配置Kerberos认证
为什么80%的码农都做不了架构师?>>> 本文主要记录 CDH Hadoop 集群上配置 HDFS 集成 Kerberos 的过程,包括 Kerberos 的安装和 Hadoo ...
- org.apache.hadoop.hdfs.server.datanode.DataNode: Exception in receiveBlock for block
Hbase依赖的datanode日志中如果出现如下报错信息:DataXceiverjava.io.EOFException: INFO org.apache.hadoop.hdfs.server.da ...
- Linux下Hadoop hdfs Java API使用
0 前言 搞了大约2天时间终于把Linux下面Java API的使用给弄清楚了.做个笔记方便以后参考.环境如下所示 Hadoop:2.5.1 Linux:Ubuntu kylin eclipse:lu ...
- Hadoop HDFS概念学习系列之熟练掌握HDFS的Shell访问(十五)
调用文件系统(FS)Shell命令应使用 $HADOOP_HOME/bin/hadoop fs *** 的形式!!! 所有的FS Shell命令使用URI路径作为参数. URI格式是scheme:/ ...
- Hadoop HDFS分布式文件系统 常用命令汇总
引言:我们维护hadoop系统的时候,必不可少需要对HDFS分布式文件系统做操作,例如拷贝一个文件/目录,查看HDFS文件系统目录下的内容,删除HDFS文件系统中的内容(文件/目录),还有HDFS管理 ...
最新文章
- 2020,让我更持久了...
- modelsim-win64-10.1c的安装和基本使用
- MongoDb数据库面试整理
- 【模拟】【贪心】POJ2709Painter
- python排序的两个方法
- PHP与MySQL外文文献译文和原文_读懂外文文献的秘诀在这里丨49周新闻
- 谷歌浏览器的下载位置如何设置 Chrome浏览器下载路径设置方法简述
- ZAP-Queries(洛谷-P3455)
- jquery关于checkbox在ie下的一个bug
- ds6708 symbol 驱动_Symbol DS6708条码扫描器
- Qt网络编程-TcpClient入门Demo(1)
- 【20220912】电商业务的核心流程
- 解决Hadoop Browse Directory Couldn‘t upload the file 错误.无法上传文件
- java excel 导出加密
- h5支付——前端需要处理什么?
- MyBatis系列:mybatis用foreach循环添加多条数据!
- CSDN不友好的收藏夹
- 360前端星计划学习笔记0410
- 神经网络整合算法是什么,神经网络整合算法实例
- 秋招面试问题总结-视觉算法
热门文章
- 密码学系列之:feistel cipher
- 小师妹学JavaIO之:NIO中Channel的妙用
- redis缓存雪崩和缓存穿透
- 【解题报告】Leecode 807. 保持城市天际线——Leecode每日刷题系列
- linux-任务调度
- 《数据结构》c语言版学习笔记——线性表的顺序存储结构
- centos 7 局域网丢包排查_宽带发生故障怎么办?教你几招轻松排查
- 聚合链路出现Destination host unreachable
- window下eclipse搭建C/C++开发环境(超简单无需插件版) .
- JAVA 串口编程 (一)