Hadoop配置总结

配置静态的的ip

/*为什么我会先配置这个就是因为我安装的centos7的版本是没有ifconfig这个命令的所以只能先设置他的静态的ip地址才能链接远程所以我先配置这。*/
cat /etc/sysconfig/network-scripts/ifcfg-ens33
增加的:
IPADDR="写入的是你想要配置的IP地址并且前面是一样的"
这个前面这个段是在VMware中点击编辑的虚拟网络编辑器下面的子网IP前面是一样的比如:192.168.43.0那么你配置的话之呢个改变后面的0不能改变前面的这个三个字段值下面图片查看!
GATEWAY=“192.168.43.2”子网掩码是必须一致的也是在虚拟编辑器中查看
NETMASK="255.255.255.0"网关必须是一致的
ONBOOT=yes//这个设置完之后才能根据IP地址连接上远程软件
注意:设置完后重启再Windows上cmd中ping一下当前的静态的ip地址如果能ping上说明成功

设置机器名跟三个机器的映射

设置机器名: vi /etc/hostname

设置映射三个机器地址与名字:vi /etc/hosts 配置情况如下图 ip地址后面就是你刚才在在hostname配置的名字,再重启就可以转变成你的设置的相关名字的机器了

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-bJSbrKBA-1667304323705)(C:\Users\赵添\AppData\Roaming\Typora\typora-user-images\image-20221012140341990.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Que9rRT5-1667304323706)(C:\Users\赵添\AppData\Roaming\Typora\typora-user-images\image-20221012140829603.png)]

安装jdk跟Hadoop

上传两个安装包

![CKaTeX parse error: Undefined control sequence: \腾 at position 26: …49{NUWD6291](D:\̲腾̲讯文件夹以及数据\qq\数据\…GTVLTUEJ7T49{NUWD6291.png)

在opt目录下创建两个目录一个是anzhuangbao另一个是jieya

cd /opt
mkdir anzhuangbao jieya
//第一个目录是装传上来的安装包的,第二个解压安装的目录。以后传上来也是可以放在这里

解压jdk跟Hadoop

tar -zxvf hadoop-2.10.2.tar.gz  -C ../jieya/
tar -zxvf jdk-18_linux-x64_bin.tar.gz -C ../jieya/

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-eVw8F4eU-1667304323708)(C:\Users\赵添\AppData\Roaming\Typora\typora-user-images\image-20221012142744227.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7nVHrULn-1667304323708)(C:\Users\赵添\AppData\Roaming\Typora\typora-user-images\image-20221012142802201.png)]

修改解压后的jdk跟Hadoop的名字为后面的配置环境做准备

mv hadoop-2.10.2/ hadoop_2
mv jdk-18.0.2.1/ jdk_18
//这个只是为了好记忆跟突出版本,这里不想改可以不改

配置jdk跟Hadoop的环境变量

编辑文件profile

vi /etc/profile
export JAVA_HOME=/opt/jieya/jdk_18
export HADOOP_HOME=/opt/jieya/hadoop_2
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin
:$HADOOP_HOME/sbin //这两个是在一行的变量的后面是你解压存放在的目录的
编辑完成后使用 source /etc/profile 刷新配置所以就会有
检验是否配置成功 hadoop version java -version

配置Hadoop文件

  1. core-site.xml

    <property><name>fs.defaultFS</name><!-- 这个IP地址是主启动的机器的IP地址8020的接口 --!><value>hdfs://192.168.43.14:8020</value></property><property><name>hadoop.tmp.dir</name><!-- 这个文件夹是用来存放hdfs的数据 --!><value>/opt/hadoop_peizhi_wenjian/hadoop_2/hadoopDatas/tempDatas</value></property><!--  缓冲区大小,实际工作中根据服务器性能动态调整;默认值4096 --><property><name>io.file.buffer.size</name><value>4096</value></property><!--  开启hdfs的垃圾桶机制,删除掉的数据可以从垃圾桶中回收,单位分钟;默认值0 --><property><name>fs.trash.interval</name><value>10080</value></property>
    
  2. hadoop-env.sh

    //配置他的jdk路径找到他里面具有的默认路径更改就好
    export JAVA_HOME=/opt/jieya/jdk_18/bin
    注意:bin后面不能有斜杠,上次就在这出现错误找了很久
    
  3. hdfs-site.xml

     <!-- NameNode存储元数据信息的路径,实际工作中,一般先确定磁盘的挂载目录,然后多个目录用,进行分割   --> <!--   集群动态上下线 --><property><name>dfs.hosts</name><value>/opt/hadoop_peizhi_wenjian/hadoop_2/etc/hadoop/accept_host</value></property><property><name>dfs.hosts.exclude</name><value>/opt/hadoop_peizhi_wenjian/hadoop_2/etc/hadoop/deny_host</value></property><property><name>dfs.namenode.secondary.http-address</name><value>node01:9868</value></property><property><name>dfs.namenode.http-address</name><value>node01:9870</value></property><!-- namenode保存fsimage的路径 --><property><name>dfs.namenode.name.dir</name><value>file:///opt/hadoop_wenjian_peizhi/hadoop_2/hadoopDatas/namenodeDatas</value></property><!--  定义dataNode数据存储的节点位置,实际工作中,一般先确定磁盘的挂载目录,然后多个目录用,进行分割  --><property><name>dfs.datanode.data.dir</name><value>file:///opt/hadoop_wenjian_peizhi/hadoop_2/hadoopDatas/datanodeDatas</value></property><!-- namenode保存editslog的目录 --><property><name>dfs.namenode.edits.dir</name><value>file:///opt/hadoop_wenjian_peizhi/hadoop_2/hadoopDatas/dfs/nn/edits</value></property><!-- secondarynamenode保存待合并的fsimage --><property><name>dfs.namenode.checkpoint.dir</name><value>file:///opt/hadoop_wenjian_peizhi/hadoop_2/hadoopDatas/dfs/snn/name</value></property><!-- secondarynamenode保存待合并的editslog --><property><name>dfs.namenode.checkpoint.edits.dir</name><value>file:///opt/hadoop_wenjian_peizhi/hadoop_2/hadoopDatas/dfs/nn/snn/edits</value></property><property><name>dfs.replication</name><value>3</value></property><property><name>dfs.permissions.enabled</name><value>false</value></property><property><name>dfs.blocksize</name><value>134217728</value></property>
    
  4. slaves

    node01
    node02
    node03
    这个表示启动dataname的节点是那些
    
  5. mapred-site.xml.template 改成 mapred-site.xml

    mv mapred-site.xml.template mapred-site.xml
    <property><name>mapreduce.framework.name</name><value>yarn</value></property><property><name>mapreduce.job.ubertask.enable</name><value>true</value></property><property><name>mapreduce.jobhistory.address</name><value>node01:10020</value></property><property><name>mapreduce.jobhistory.webapp.address</name><value>node01:19888</value></property><property><name>yarn.app.mapreduce.am.env</name><value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value></property><property><name>mapreduce.map.env</name><value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value></property><property><name>mapreduce.reduce.env</name><value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value></property>
    
  6. yarn-site.xml

    <property><name>yarn.resourcemanager.hostname</name><value>node01</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><!-- 如果vmem、pmem资源不够,会报错,此处将资源监察置为false --><property><name>yarn.nodemanager.vmem-check-enabled</name><value>false</value></property><property><name>yarn.nodemanager.pmem-check-enabled</name><value>false</value></property>
    

克隆机器

注意:这里相当于是配置另外两台机器了,先在这个机器上打上快照

克隆之后最主要改的是主机名跟之前设置的递归的ip地址

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ogjs90Zw-1667304323710)(C:\Users\赵添\AppData\Roaming\Typora\typora-user-images\image-20221012154433826.png)]

配置三个机器免密

在第一个机器上配置

ssh-keygen -t rsa -f /root/.ssh/id_rsa -N ''
ssh-copy-id root@10.100.50.7 这个的IP地址就是你想要免密的机器
ssh root@ip 这个是查看是否配置好

以上三个字段在三台机器上都要配置

第二个是在每个机器上都是要copy其他的机器格式是一样的

创建配置文件夹

mkdir -p /opt/hadoop_peizhi_wenjian/hadoop_2/etc/hadoop/deny_host
mkdir -p /opt/hadoop_wenjian_peizhi/hadoop_2/hadoopDatas/namenodeDatas
mkdir -p /opt/hadoop_wenjian_peizhi/hadoop_2/hadoopDatas/datanodeDatas
mkdir -p /opt/hadoop_wenjian_peizhi/hadoop_2/hadoopDatas/dfs/nn/edits
mkdir -p /opt/hadoop_wenjian_peizhi/hadoop_2/hadoopDatas/dfs/snn/name
mkdir -p /opt/hadoop_wenjian_peizhi/hadoop_2/hadoopDatas/dfs/nn/snn/edits
//这上面Hadoop的配置文件的中存放的数据目录的位置
//因为是克隆来的这些都是创建好的。如果不是配好的话那么就自己按照上面进行配置

格式化hdfs

  • 命令

    在node01上执行以下命令
    hdfs namenode -format
    

i/hadoop_2/hadoopDatas/dfs/snn/name
mkdir -p /opt/hadoop_wenjian_peizhi/hadoop_2/hadoopDatas/dfs/nn/snn/edits
//这上面Hadoop的配置文件的中存放的数据目录的位置
//因为是克隆来的这些都是创建好的。如果不是配好的话那么就自己按照上面进行配置

格式化namenode

  在node01上执行以下命令hdfs namenode -format

如果遇见问题可以私信我们一起讨论!

Hadoop配置总结(重置细节版)相关推荐

  1. Hadoop介绍及最新稳定版Hadoop 2.4.1下载地址及单节点安装

     Hadoop介绍 Hadoop是一个能对大量数据进行分布式处理的软件框架.其基本的组成包括hdfs分布式文件系统和可以运行在hdfs文件系统上的MapReduce编程模型,以及基于hdfs和MapR ...

  2. hadoop配置eclipse的开发环境

    hadoop配置eclipse的开发环境 一.前言 由于大三学习需要,而且网上的教程都有点模糊,导致我走了不少弯路,因此我写下这篇博客,本文仅供参考,如果有不足之处,还望指出. 二.安装eclipse ...

  3. 四十九、Hadoop HA部署(MINI版)

    环境准备: 编号 主机名 类型 用户 密码 1 master1-1 主节点 root passwd 2 slave1-1 从节点 root passwd 3 slave1-2 从节点 root pas ...

  4. 学习笔记Hadoop(八)—— Hadoop集群的安装与部署(5)—— Hadoop配置参数介绍、Hadoop集群启动与监控

    五.Hadoop配置参数介绍 Hadoop集群配置文件主要有: 它们的默认参数配置可以看: core-default.xml :https://hadoop.apache.org/docs/stabl ...

  5. Spark加载hadoop配置原理

    0x0 背景 最近为了将hadoop&hive的五大配置文件,即: core-site.xml hdfs-site.xml yarn-site.xml mapred-site.xml hive ...

  6. hadoop配置(个人总结)

    实验机器: namenode: 192.168.120.63 - centos5 datanode: 192.168.120.64  -centos5 datanode: 192.168.120.65 ...

  7. Hadoop配置lzo

    Hadoop配置lzo 编译部署参考:https://blog.csdn.net/weixin_40420525/article/details/84869883 一.编译: 0. 环境准备 mave ...

  8. 阿里云安装配置mysql(centos版)

    阿里云安装配置mysql(centos版) 阿里云安装配置mysql(centos版) 1,安装mysql数据库 a)下载mysql源安装包:wget http://dev.mysql.com/get ...

  9. Hadoop权威指南(第3版) 修订版(带目录书签) 中文PDF--高清晰

    一.下载地址(永久有效) 百度云盘下载(公开永久):Hadoop权威指南(第3版) 修订版(带目录书签) 中文PDF高清晰 CSDN积分下载:Hadoop权威指南(第3版)+高清晰 二.数据的存储和分 ...

最新文章

  1. python 使用import导入不同文件下的文件
  2. dubbo配置文件加载顺序
  3. steam怎么看邮箱绑定的账号_怎么为QQ邮箱设置英文邮箱账号
  4. python中怎么比较两个列表的大小_Python:找到两个列表中存在的给定长度的公共子列表...
  5. boost::mp11::mp_reverse_fold_q相关用法的测试程序
  6. nginx 配置SSL/HTTPS
  7. 常用Java面试题 List集合
  8. webpack3 css,媒体查询不能使用CSS /样式加载器和Webpack3
  9. [Buzz.Today]2011.06.26
  10. 【docker】为docker下的php容器安装php-redis扩展【编译安装】
  11. 【java】JDK8的HashMap
  12. (PPT)Python程序设计课程教学内容组织与教学方法实践
  13. Apache无法正常启动的原因
  14. 二叉树期权定价python代码_欧式和美式期权的二叉树和Greek(1)——PYTHON
  15. webpack——快速入门【一】
  16. 1 源码安装Zabbix agent 3.4
  17. 公钥和私钥的作用和区别
  18. Linux unison 效率,linux利用unison实现双向或多向实时同步
  19. 活动报名丨AI ProCon 2020火爆来袭!
  20. (转)深度学习中各种图像库的图片读取方式

热门文章

  1. 商场会员营销小程序-连接会员,赋能商家
  2. 三维动画项目实训① ------(3.17-3.24)
  3. 计算机基础结构化程序设计,《计算机程序设计基础》教学课件:8_2~8_3_结构化程序设计...
  4. 厄拉托塞师(Eratosthenes)筛法
  5. angular8 富文本编辑_angular富文本编辑器tinymce-angular
  6. java的逻辑常量_在Java语言中,逻辑常量只有true和(__)两个值;
  7. Visual and Object Geo-localization: A Comprehensive Survey
  8. Android刘海屏、水滴屏全面屏适配详解,android开发实战湖南师范大学出版社
  9. IT耳朵IT桔子:2017年人工智能行业发展研究报告白皮书
  10. 用一根线模拟浦丰投针实验——Java