全局分布式集群搭建

注: 如果之前搭建过伪分布式集群,则必须删除就hadoop的jar包,重新解压,因为之前配的文件有可能会冲突。
  接下来是搭建集群的详细配置步骤 ~~
  搭建集群之前的一些设置之前有配置过,就不在详细讲了,全局集群的搭建主要与单机集群的搭建配置文件有些不同,其他都差不多一样,详细步骤 -----点击查看

伪分布式

以上的设置都配置成功以后接下来修改配置文件
在修改配置文件之前给大家推荐一个工具 Notepad ++,这个工具在登录以后直接可以点击文件,修改配置文件,方便很多。 需要的进去官网下载 ,点击进入Notepad++这里有详细的操作步骤及安装包。接下来开始设置配置文件了 …

  1. 配置文件 hadoop-env.sh
export JAVA_HOME=/root/Downloads/jdk1.7.0_79
 export HADOOP_HOME=/root/Downloads/hadoop-2.6.5

  1. 配置文件 core-site.xml

    /hadoop.tmpdir : 产生namenode中fsimage 和edits文件合并元数据
<configuration>    <property>        <name>fs.defaultFS</name><value>hdfs://hadoop:9000</value></property><property><name>hadoop.tmp.dir</name><value>/hadoop/tmpdir</value></property></configuration>
  1. 配置文件 hdfs-site.xml
<configuration>
<property><name>dfs.namenode.name.dir</name><!-- 放置的是namenode 中的fsimage--><value>/hadoop/tmpdir/name</value>
</property>
<property><name>dfs.namenode.http-address</name><!-- namenode的访问地址--><value>hadoop:50070</value>
</property>
<property><name>dfs.namenode.edits.dir</name><value>/hadoop/tmpdir/nameedits</value><!-- namenode的edits日志文件地址--></property>
<property><name>dfs.namenode.checkpoint.dir</name><!-- snn的fsimage地址--><value>/hadoop/tmpdir/secondary</value>
</property>
<property><name>dfs.namenode.checkpoint.edits.dir</name><!-- snn的edits日志文件的地址--><value>/hadoop/tmpdir/secondaryedits</value>
</property>
</configuration>
  1. 配置文件 yarn-site.xml
    shuffle是一个程序分发的理解意思
    ResourceManager:----->ApplicationManager(服务) appmaster (RM-container)—>RM
    Scheduler: 专注于:AM–>RM(注册分配资源)
    如果配置完进不去8088把这行代码删掉
<property>
<name>yarn.resourcemanager.webapp.address</name>
<!--web服务器的端口 -->
<value>hadoo p:8088</value>
</property>

<configuration>
<property><name>yarn.resourcemanager.hostname</name><value>hadoop</value>
</property>
<!-- rm的启动地址 -->
<property>    <name>yarn.nodemanager.aux-services</name><!-- 是否需要shuffle  可以切换本地模式和集群模式 --><value>mapreduce_shuffle</value>
</property>
<property>    <name>yarn.resourcemanager.address</name><!--resourcemanager分配的端口地址  --><value>hadoop:8032</value>
</property>
<property>    <name>yarn.resourcemanager.scheduler.address</name><!-- PRC的地址,并且用于分配资源的端口 --><value>hadoop:8030</value>
</property>
<property>    <name>yarn.resourcemanager.resource-tracker.address</name><!-- 对nodemanager暴露的地址 (资源追踪器) 心跳机制端口 --><value>hadoop:8031</value>
</property>
<property>    <name>yarn.resourcemanager.admin.address</name><!-- resourcemanager 的admin模块的通讯地址 --><value>hadoop:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<!--web服务器的端口 -->
<value>hadoo p:8088</value>
</property><property>  <name>yarn.log-aggregation-enable</name><value>true</value><!--开启日志聚合 -->
</property><property>  <name>yarn.nodemanager.remote-app-log-dir</name><value>/hadoop/logs</value><!--日志聚合到一个文件夹中 -->
</property>
</configuration>
  1. 配置文件 mapred-site.xml
    在配置这个文件的时候得注意一点 就是刚开始的时候 mapred-site.xml 这个文件时空的,则需要把 mapred-site.xml.template 修改成 mapred-site.xml
    如果没有修改这个在之后的访问YARN web浏览器的时候是没有application的
    linux命令为 :
    mv mapred-site.xml.template mapred-site.xml
<configuration>
<property><name>mapreduce.framework.name</name><value>yarn</value><final>true</final>
</property><property><name>mapreduce.jobhistory.address</name><!-- 启动历史服务器--><value>hadoop:10020</value>
</property><property><name>mapreduce.jobhistory.webapp.address</name><!-- 历史服务器web访问地址--><value>hadoop:19888</value>
</property>
</configuration>
  1. 配置文件 slaves (从节点指定)
    主机名
    从节点配置三台

  2. 分发 /etc/hadoop路径下 配置文件到其他两台机器

    • 删除其他两台机器jar包  命令 rm -rf hadoop-2.6.5
    • 重新解压 在tar -zxvf hadoop压缩包
    • etc 下目录下 scp -r hadoop/ root@其他机器主机名:/root/Downloads/hadoop-2.6.5/etc/hadoop/
    • 注意之间的空格
  3. 把集群进行格式化 format 生成fismage镜像和edits  命令 hdfs namenode -format

  4. 免密设置:ssh-keygen -t rsa ----->.ssh(报错删除)

  • 配置 主机1—>主机2 ssh-copy-id 主机 1—2 1—3 2—1 2—3 3—1 3—2
  • ssh-copy-id 自己的主机名 本机的主机免密也需要配置
  1. 启动集群
    机器:start-all.sh 启动所有机器
       stop-all.sh 关闭集群
  2. Hadoop启动方式
    1.无脑启动 --不常用
    Start-all.sh/Stop-all.sh
    2.安装大模块启动 —常用
    Start-dfs.sh
    Start-yarn.sh
  3. web上查看进程
    在访问集群之前 先找到window C盘\ windows\system32\etc hosts 修改主机名,如果修改没成功,进入查看解决问题 修改c盘文件
    主机名:50070访问hdfs

    主机名:8088 访问yarn

    1. wordcount 程序 wordcount详解

cd /
vim wordcount.txt
ls
hdfs dfs -mkdir /ww
hdfs dfs -put wordcount.txt /ww
运行程序 cd ~ ls 找到jar包 $HADOOP_HOME cd share cd hadoop
ls cd mapreduce
ls
hadoop jar hadoop-mapreduce-examples-2.6.5.jar wordcount /qq/wordcount.txt /wordcount
运行成功之后 访问hdfs 查看是否有文件

  1. 搭建中遇到的问题
    注意事项 :
    今天在搭建全局集群的过程中很多的问题,之后找到了相应的解决方法,把这些方法分享给大家 ,以防遇到类似的问题!!!
    1.在配置免密之前一直没有成功,明明配了免密还要一直提示输入密码,这个问题是因为我在之前配置文件主机名映射的问题
      1.首先cd ~ 到家目录 ls -la查看是否有.ssh配置文件
      2.如果有rm -rf .ssh 删除配置文件重新生成
      3.ssh-keygen -t rsa 生成密钥 然后一直回车
      4.ssh-copy-id 主机名
    例如:ssh-copy-id hadoop ssh-copy-id hadoop1 (注意的是需要连接n台就得配置n台,配置包括本机)
    2.启动之后一直不显示进程或进程缺少
      1.首先查看配置文件是否正确或者cd $HADOOP_HOME 下的logs 日志 可以查看日志的末尾报错所在的位置 tail -200f 日志文件
      2.在配置文件没有书写问题时,cd / 到根目录 删除之前生成的文件 我的是hadoop 切记 其他虚拟机文件也得删除
      3.删除之后重新 格式化 hdfs namenode -format
      4.成功以后启动集群 start-all.ssh

全分布式集群搭建总结相关推荐

  1. Hadoop全分布式集群搭建(全网最详细,保姆级教程)

    在上一篇Hadoop环境搭建(全网最详细,保姆级教程)中已经搭建好了一个单机Hadoop环境,接下来搭建全分布式Hadoop集群 首先对Hadoop全分布示集群进行简单介绍和规划 一个集群由一个主机, ...

  2. 全分布式集群搭建流程(超详细)

    全分布式的集群搭建流程如下: 1.克隆虚拟机 2.克隆后的配置 修改网卡信息 vi /etc/udev/rules.d/70-persistent-net.rules 修改主机名 vi /etc/sy ...

  3. redis全分布式集群

    文章目录 前言 Redis集群分片 槽位分片举例: Redis集群节点复制 Redis集群故障转移 全分布式集群搭建 Redis集群总结 前言 之前我们介绍了Twitter的解决方案,推出了路由代理的 ...

  4. 第二节HDFS完全分布式集群搭建与配置及常见问题总结

    提示:此文章内容超级全面和详细 文章目录 前言 一.HDFS完全分布式集群是什么? 二.HDFS完全分布式集群搭建与配置 1.HDFS完全分布式集群搭建库 2.HDFS完全分布式集群搭建配置 HDFS ...

  5. 聊聊 Pulsar: Pulsar 分布式集群搭建

    一.集群搭建要求 1.1 搭建设计 搭建 Pulsar 集群至少需要 3 个组件:ZooKeeper 集群.Bookkeeper 集群和 Broker 集群(Broker 是 Pulsar 的自身实例 ...

  6. Hadoop-HDFS的伪分布式和完全分布式集群搭建

    转自:  https://blog.csdn.net/mhw666/article/details/91610598 CentOS 7 下使用yum安装MySQL5.7.20,并设置开启启动:  ht ...

  7. 大数据调度平台Airflow(八):Airflow分布式集群搭建及测试

    目录 Airflow分布式集群搭建及测试 一.节点规划 二.airflow集群搭建步骤 1.在所有节点安装python3.7 2.在所有节点上安装airflow 三.初始化Airflow 1.每台节点 ...

  8. 大数据分布式集群搭建(1)

    在学习了几天的hadoop分布式集群搭建之后想写写文章记录一下一路以来遇到的困难和解决方案. 闲话不多说,进入正题. 一.环境及准备 因为只有一台电脑,所以需要用虚拟机来模拟环境. 本地机器用到软件: ...

  9. hadoop分布式集群搭建

    hadoop集群搭建前的准备(一定要读):https://blog.51cto.com/14048416/2341450 hadoop分布式集群搭建: 1. 集群规划: 2.具体步骤: (1)上传安装 ...

最新文章

  1. kafka 监控(eagle)
  2. Subsonic使用中
  3. eclipse rcp 多线程
  4. 第7章-选择器+伪类
  5. Web前端工作笔记004---js--webSocket简单介绍和使用方法
  6. java求最小生成树的权重_给定有权无向图的邻接矩阵如下,求其最小生成树的总权重,代码。...
  7. 【报告分享】京东大数据202女性消费趋势报告.pdf(附下载链接)
  8. 高一计算机专业班主任工作总结,07计算机5班班主任工作总结
  9. 2018-09-10-整车开发流程名词解释
  10. ansoft maxwell破解版下载v16 中文版 32bit 64bit 百度云盘分享下载链接目录点击下方链接下载即可获得
  11. 马科维茨投资组合有效集、最优投资组合
  12. 千年db服务器注册,千年服务器架设说明.doc
  13. Opencv裁剪图片大小
  14. 好用的json在线工具
  15. 一零二八、将csdn文章内容保存成 html、pdf、md格式
  16. [附源码]Node.js计算机毕业设计房屋出租管理系统Express
  17. 计算机毕业设计php+vue基于微信小程序的音乐云系统-音乐播放系统
  18. AndroidStudio实现用户登录注册界面代码(一)
  19. 新加坡国际学校IB成绩亮眼,全球40%满分考生来自新加坡
  20. 使用腾讯云服务器搭建网站

热门文章

  1. SAP Spartacus outlet.directive.ts里this.templateRef的来源
  2. 一个SCSS里mixin的使用例子
  3. SAP Spartacus 里的三种table类型
  4. SAP Spartacus的开发人员来自全球各地
  5. SAP Spartacus B2B功能,只渲染BodyContent position里的UI
  6. SAP Spartacus里的concurrently依赖
  7. Angular HTML template的解析位置
  8. SAP CRM WebClient UI calculated fields的工作原理
  9. SAP云平台和SAP C4C之间的OAuth2.0配置
  10. 使用代码获得Hybris Commerce里显示的产品图片