配置过程

修改配置文件

hadoop的配置文件在:/root/apps/hadoop安装目录/etc/hadoop/

  1. 修改hadoop-env.sh,配置java环境变量
    export JAVA_HOME=/usr/local/java

  2. 修改core-site.xml,设置文件系统和访问位置b

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
</configuration>

一律将ip地址改成域名映射

  1. 修改hdfs-site.xml,设置文件存储的位置(datanode和namenode不在同一个文件夹,所以可以共存在一个机器,通过端口访问)
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/root/hdpdata/name/</value>
</property><property>
<name>dfs.datanode.data.dir</name>
<value>/root/hdpdata/data</value>
</property><property>
<name>dfs.namenode.secondary.http-address</name>
<value>slave1:50090</value>
</property></configuration>

拷贝整个hadoop安装目录到其他机器

scp -r /root/apps/  slave1:/root/apps/
scp -r /root/apps/  slave2:/root/apps/
scp -r /root/apps/  slave3:/root/apps/

初始化HDFS

配置hadoop环境变量
要运行hadoop的命令,需要在linux环境中配置HADOOP_HOME和PATH环境变量
vi /etc/profile

export JAVA_HOME=/root/apps/jdk1.8.0_60
export HADOOP_HOME=/root/apps/hadoop-2.8.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

初始化namenode的元数据目录
要在master上执行hadoop的一个命令来初始化namenode的元数据存储目录
hadoop namenode -format
 创建一个全新的元数据存储目录
 生成记录元数据的文件fsimage
 生成集群的相关标识:如:集群id——clusterID

启动HDFS

启动namenode进程(在master上,不可在其他机器上,因为配置文件制定了namenode位置,b问题)
hadoop-daemon.sh start namenode
启动完后,首先用jps查看一下namenode的进程是否存在
9000端口是集群信息交流
50070是web端

http://master:50070

启动datanode(任意一台机器)
由于所有的hadoop配置文件都一样,所以所有子都知道master的位置,然后去连接
hadoop-daemon.sh start datanode
一定要在/etc/hadoop/slaves中配置子节点,/etc/hosts名字,且必须用名字,而不能直接输入ip,否则无法加入集群,好像是slaves不支持直接输入ip

一键启动hdfs
修改hadoop安装目录中/etc/hadoop/slaves(把需要启动datanode进程的节点列入)
相当于写了一个远程ssh执行的脚本

master
slave1
slave2
slave3

在master上用脚本:start-dfs.sh 来自动启动整个集群,如果要停止,则用脚本:stop-dfs.sh

其他技巧

1.查看namenode的详细信息
jps获得进行id

cla@cla:/usr/local/share/hadoop-2.8.1/etc/hadoop$ jps
1857 Jps
1784 NameNode

ps -ef | grep 1784查看具体信息

cla@cla:/usr/local/share/hadoop-2.8.1/etc/hadoop$ ps -ef | grep 1784
cla       1784     1  2 18:49 pts/8    00:00:05 /usr/local/share/jdk1.8.0_60//bin/java -Dproc_namenode -Xmx1000m -Djava.net.preferIPv4Stack=true -Dhadoop.log.dir=/usr/local/share/hadoop-2.8.1/logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/usr/local/share/hadoop-2.8.1 -Dhadoop.id.str=cla -Dhadoop.root.logger=INFO,console -Djava.library.path=/usr/local/share/hadoop-2.8.1/lib/native -Dhadoop.policy.file=hadoop-policy.xml -Djava.net.preferIPv4Stack=true -Djava.net.preferIPv4Stack=true -Djava.net.preferIPv4Stack=true -Dhadoop.log.dir=/usr/local/share/hadoop-2.8.1/logs -Dhadoop.log.file=hadoop-cla-namenode-cla.log -Dhadoop.home.dir=/usr/local/share/hadoop-2.8.1 -Dhadoop.id.str=cla -Dhadoop.root.logger=INFO,RFA -Djava.library.path=/usr/local/share/hadoop-2.8.1/lib/native -Dhadoop.policy.file=hadoop-policy.xml -Djava.net.preferIPv4Stack=true -Dhadoop.security.logger=INFO,RFAS -Dhdfs.audit.logger=INFO,NullAppender -Dhadoop.security.logger=INFO,RFAS -Dhdfs.audit.logger=INFO,NullAppender -Dhadoop.security.logger=INFO,RFAS -Dhdfs.audit.logger=INFO,NullAppender -Dhadoop.security.logger=INFO,RFAS org.apache.hadoop.hdfs.server.namenode.NameNode
cla@cla:/usr/local/share/hadoop-2.8.1/etc/hadoop$

netstat -nltp | grep 1784


cla@cla:/usr/local/share/hadoop-2.8.1/etc/hadoop$ netstat -nltp | grep 1784
(Not all processes could be identified, non-owned process infowill not be shown, you would have to be root to see it all.)
tcp        0      0 192.168.43.241:9000     0.0.0.0:*               LISTEN      1784/java
tcp        0      0 0.0.0.0:50070           0.0.0.0:*               LISTEN      1784/java

hadoop hdfs 集群配置相关推荐

  1. Hadoop Ha集群配置

    为什么要配置HDFS HA?   首先:HDFS集群中NameNode 如果存在单点故障.对于只有一个NameNode的集群,如果NameNode机器出现意外情况,将导致整个集群无法使用. 而影响HD ...

  2. hadoop hdfs 集群模板机配置

    模板机配置 1.配置主机名 vi /etc/hostname 2.配置域名映射 vi /etc/hosts 1.注意如果想在win客户端提交任务到集群,则需要在win上的hosts文件也使用同样的配置 ...

  3. Hadoop分布式集群配置

    1.三台虚拟机(Centos7.6),配置JDK,HADOOP环境,在搭建虚拟机时,可以先将一台的环境配置,再克隆两台改IP就好.三台虚拟机最小化安装,必须拥有必要的插件 <!--解释--> ...

  4. hadoop yarn 集群配置

    yarn基本概念 yarn是负责调度mapreduce程序,hdfs是负责存储数据 1.Resource Manager 接受用户提交的分布式计算程序,并为其划分资源 管理.监控各个Node Mana ...

  5. cdh 之 HDFS集群优化篇003

    2019/3/21 星期四 1.操作系统级别优化 选择Linux的文件系统为:XFS文件系统 2.预读缓冲 预读技术可以有效的减少磁盘寻道次数和应用的I/O等待时间,增加Linux文件系统预读缓冲区的 ...

  6. Hadoop集群配置(最全面总结)

    Hadoop集群配置(最全面总结) 通常,集群里的一台机器被指定为 NameNode,另一台不同的机器被指定为JobTracker.这些机器是masters.余下的机器即作为DataNode也作为Ta ...

  7. Hadoop 2.0集群配置详细教程

    Hadoop 2.0集群配置详细教程 前言 Hadoop2.0介绍 Hadoop是 apache 的开源 项目,开发的主要目的是为了构建可靠,可拓展 scalable ,分布式的系 统, hadoop ...

  8. Hadoop分布式集群安装配置

    1.1 安装环境 操作系统deepin 15.11, VMware Workstation,hadoop 3.1.3 版本.在deepin 操作系统中安装 VMware Workstation,在 V ...

  9. hadoop java访问_Hadoop(五)搭建Hadoop客户端与Java访问HDFS集群

    上一篇详细介绍了HDFS集群,还有操作HDFS集群的一些命令,常用的命令: hdfs dfs -ls xxx hdfs dfs -mkdir -p /xxx/xxx hdfs dfs -cat xxx ...

最新文章

  1. 别让不好意思害了你(不过,别人好意思)
  2. as3.0 删除子元件
  3. wxpython 内嵌字体_【wxPython】wx.font类字体
  4. 如何用 Serverless 让 SaaS 获得更灵活的租户隔离、更优的资源开销
  5. yaml 文件格式简介
  6. 判断浏览器是否为IE内核的最简单的方法
  7. 第一个一千行总结-数据结构C复习--知识点总结1--一到四章
  8. ASP.NET AJAX Timer Trouble? Location is key.
  9. python接收最新邮件_Python接收Gmail新邮件并发送到gtalk的方法
  10. iOS开发初探篇——UITabBarController
  11. Kubernetes 小白学习笔记(21)--kubernetes的运维-管理Lable
  12. go实现文档中保存的微信图片.dat格式解密为图片
  13. 移动端车牌识别可以识别新能源汽车
  14. 职业理想规划计算机专业,计算机专业的职业生涯规划书范文
  15. QT中的视频显示优化
  16. Electron 打包Mac安装包代码签名问题解决方案
  17. android_day01
  18. 【paper】latex使用algorithm工具包实现伪代码排版
  19. Word中文字和公式对齐问题
  20. putty使用ppk远程_如何使用PuTTY远程打开GUI应用程序

热门文章

  1. python 操作微信闪电贷款_16、6个能够让Python程序快如闪电的小技巧
  2. Python逐块执行另一个Python程序中的代码观察运行过程
  3. Python视频处理案例六则:旋转视频、调整音量/播放速度、淡入淡出、插入转场素材...
  4. Python花式编程案例集锦(7):判断回文
  5. python class用法理解_通过钢铁侠变身快速理解Python的装饰器用法
  6. 移除inline-block间隙
  7. php html5 api,HTML5 File API解读
  8. php7 fastcgi安装,安装windows 下 php7+nginx+fastcgi
  9. mac 2k显示器字体发虚_精准色彩体验-优派VP2785-2K
  10. g++是什么_飞度车主开奔驰G级的一天,会是什么样的体验?