hadoop端口

----------------

1.namenode 50070

http://namenode:50070/

2.resourcemanager:8088

http://localhost:8088/

3.historyServer

http://hs:19888/

4.name rpc(remote procedure call,远程过程调用)

hdfs://namenode:8020/

ssh指令结合操作命令

---------------------

$>ssh s300 rm -rf /xx/x/x

通过scp远程复制

--------------------

$>scp -r /xxx/x ubuntu@s200:/path

编写脚本,实现文件或者文件夹的在所有节点远程复制。

xcopy.sh

--------------------

scp -r path ubuntu@s200:/path

删除

------

xrm.sh a.txt

ssh s200 rm -rf path

远程复制文件

[/usr/local/sbin/xcp.sh]
#!/bin/bash
if [ $# -lt 1 ] ;thenecho no argsexit;
fi
#get first argument
arg1=$1;
cuser=`whoami`
fname=`basename $arg1`
dir=`dirname $arg1`
if [ "$dir" = "." ]; thendir=`pwd`
fi
for (( i=200;i<=500;i=i+100)) ;
doecho -----coping $arg1 to $i ------;if [ -d $arg1 ] ;thenscp -r $arg1 $cuser@s$i:$dir elsescp $arg1 $cuser@s$i:$dir fiecho
done

slaves

----------

master

masters

hadoop2.7.2源代码处理

-----------------------

1.下载并加压hadoop.2.7.2-tar.gz文件

2.对Jar包按照CONF,LIB,SOURCES,TSET等分类

从jar包提取所有的配置项

------------------------

1.core-default.xml

D:\downloads\bigdata\hadoop-2.7.2\_libs\hadoop-common-2.7.2.jar

2.hdfs-default.xml

D:\downloads\bigdata\hadoop-2.7.2\_libs\hadoop-hdfs-2.7.2.jar

3.mapred-default.xml

D:\downloads\bigdata\hadoop-2.7.2\_libs\hadoop-mapreduce-client-core-2.7.2.jar

4.yarn-default.xml

D:\downloads\bigdata\hadoop-2.7.2\_libs\hadoop-yarn-common-2.7.2.jar

master node == NameNode

------------------------

{hadoop}/sbin/start-all.sh

--------------------------------------

1.{hadoop}\libexec\hadoop-config.sh

HADOOP_CONF_DIR=...//--config参数

2./sbin/start-dfs.sh --config $HADOOP_CONF_DIR

3./sbin/start-yarn.sh --config $HADOOP_CONF_DIR

{hadoop_home}/sbin/start-dfs.sh

--------------------------------

1.{hadoop}\libexec\hadoop-config.sh

HADOOP_CONF_DIR=...//--config参数

2.NAMENODE={hadoop_home}/bin/hdfs getconf -namenodes//提取名称节点的主机名

3.{hadoop_home}/sbin/hadoop-daemons.sh --config ... --hostnames ... --script "{hadoop_home}/bin/hdfs" start namenode $dataStartOpt

4.{hadoop_home}/sbin/hadoop-daemons.sh --config ... --hostnames ... --script "{hadoop_home}/bin/hdfs" start datanode $dataStartOpt

5.{hadoop_home}/sbin/hadoop-daemons.sh --config ... --hostnames ... --script "{hadoop_home}/bin/hdfs" start secondarynamenode

{hadoop_home}/sbin/hadoop-daemons.sh

---------------------------------------

1.{hadoop}\libexec\hadoop-config.sh

HADOOP_CONF_DIR=...//--config参数

2.exec "$bin/slaves.sh" --config $HADOOP_CONF_DIR cd "$HADOOP_PREFIX" \; "$bin/hadoop-daemon.sh" --config $HADOOP_CONF_DIR "$@"

{hadoop_home}/sbin/slaves.sh

-----------------------------

1.{hadoop}\libexec\hadoop-config.sh

HADOOP_CONF_DIR=...//--config参数

2."${HADOOP_CONF_DIR}/hadoop-env.sh"

3.提取slaves文件的所有主机名-->SLAVE_NAMES

4.for SLAVE_NAMES --> ssh @hostname ...

"$bin/hadoop-daemon.sh"

-----------------------------

1.{hadoop}\libexec\hadoop-config.sh

HADOOP_CONF_DIR=...//--config参数

2.namenode|datanode|2namenode|..

bin/hdfs/xxxx

2NN配置独立的主机

--------------------

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>0.0.0.0:50090</value>

<description>

The secondary namenode http server address and port.

</description>

</property>

修改默认的hadoop临时目录

-------------------------

[core-site.xml]

hadoop.tmp.dir=/home/ubuntu/hadoop/

修改blocksize大小,默认是128m

-----------------------------

[hdfs-site.xml]

dfs.blocksize=8m

1.测试方式

put 文件 > 8m,通过webui查看块大小

转载于:https://blog.51cto.com/yehom/1793046

【DAY2】hadoop 完全分布式模式配置的学习笔记相关推荐

  1. hadoop伪分布式模式_Hadoop模式介绍-独立,伪分布式,分布式

    hadoop伪分布式模式 了解了什么是Hadoop之后,让我们在单机上启动Hadoop: 这篇文章包含在ubuntu上安装Hadoop的说明. 这是Hadoop安装的快速分步教程. 在这里,您将获得以 ...

  2. 携程 Apollo 配置中心 | 学习笔记(七) | 如何将配置文件敏感信息加密?

    携程 Apollo 配置中心 | 学习笔记(一) Apollo配置中心简单介绍 携程 Apollo 配置中心 | 学习笔记(二) Windows 系统搭建基于携程Apollo配置中心单机模式 携程 A ...

  3. 阿里P8架构师进阶心得:分布式数据库架构MyCat学习笔记送给你

    前言: MyCat 是一个数据库分库分表中间件,使用 MyCat 可以非常方便地实现数据库的分库分表查询,并且减少项目中的业务代码.今天我们将通过数据库架构发展的演变来介绍 MyCat 的诞生背景,以 ...

  4. MSP432安装与环境配置(ccs) 学习笔记

    MSP432安装与环境配置(ccs) 学习笔记   关闭电脑病毒防护 继续 选择ccs的安装文件路径 选择要安装的类型 选择使用工作区目录存储其首选项和开发文件路径 使用usb接入432 关闭安装ms ...

  5. linux中jdk环境配置,安装MySQL,配置Hadoop伪分布式,配置hive环境

    1.修改虚拟机名称 vi /etc/hostname 进入命令模式输入[:wq]保存退出 2.修改虚拟机映射 vi /etc/hosts 输入端口号+虚拟机名称,保存退出[:wq] 3.重启虚拟机 r ...

  6. 安装hadoop伪分布式模式(Single Node Cluster)

    目的 本文档介绍如何去安装单节点hadoop集群,以便你可以的了解和使用hadoop的HDFS和MapReduce. 环境: os: CentOS release 6.5 (Final) ip: 17 ...

  7. ASP.NET Core分布式项目实战(第三方ClientCredential模式调用)--学习笔记

    任务10:第三方ClientCredential模式调用 创建一个控制台程序 dotnet new console --name ThirdPartyDemo 添加 Nuget 包:IdentityM ...

  8. FTP主动模式和被动模式学习笔记

    关于FTP,有被动模式和主动模式两种,有人说是验证模式,我不太认同,但懒得查资料,不想咬文嚼字,纠结这种事情.下面简单从自己理解的角度来记录一下两种模式的学习笔记. 1.被动模式 代码流程: 客户端: ...

  9. 多路径配置udev_学习笔记:Linux多路径配置 multipath实现设备用户组绑定详细设置...

    天萃荷净 Linux多路径软件配置,通过multipath实现设备用户组绑定详细设置 现在的Linux系统中,很多都会使用系统自带的multipath多路径软件,在以前的版本中,我们一般通过multi ...

最新文章

  1. python安装百度aip_PIL+百度aip
  2. 【MIPS汇编】ADDI,ADDIU,ADD,ADDU的区别、有符号无符号的谬误
  3. rust矿洞绳子怎么爬下_rust矿洞绳子怎么爬下_打工小伙爬冰救人,每动一下都能听到冰面碎裂声...
  4. 蜕变!网易轻舟微服务这波操作,始于异构融合、源于中台!
  5. 7-30 字符串的冒泡排序 (20 分) or 7-27 冒泡法排序 (20 分)
  6. 家境一般但被中外合资大学录取了,现在家庭气氛紧张
  7. cass参考手册_CASS9.2参考手册
  8. Linux 内核 SMP 代码追踪 --- cpumask
  9. Git学习笔记(九) 历史穿梭
  10. java多线程同步synchronized,浅析Java多线程同步synchronized,javasynchronized
  11. R语言如何下载及安装?——R语言安装及环境配置1
  12. 小程序中插入腾讯视频
  13. 关于LVGL下物理按键的使用
  14. 特大喜讯,uni-app支持PC版了!
  15. 基于steam的游戏销量预测 — PART 2 — 文本分析
  16. 优粮生活炒菜机器人_【O2O案例】优粮生活:一个餐饮人该有的产品精神
  17. CAD控件 出三维控件!和手机CAD控件了,欢迎大家使用!
  18. 抱怨,是对自己无能的愤慨
  19. JS高级进阶总结day01---面向对象编程介绍,new的工作原理以及构造函数,原型对象,实力函数三者之间的关系
  20. docker实现quagga_docker中安装quagga详细介绍

热门文章

  1. java小工程_Java进阶:阶段性小工程
  2. sap 客户独立需求作用_SAP 动态安全库存其中动态时间应用
  3. 大圆距离matlab代码,python – cartopy:大圆距离线的更高分辨率
  4. esp8266连接不上服务器不稳定,esp8266 联网问题+链接服务器问题
  5. android微信条码支付接口,Android中调用微信支付接口
  6. ina3221嵌入式linux,嵌入式Linux之我行——Linux-2.6.30.4在2440上的移植之文件系统
  7. Oracle/PLSQL While Loop
  8. Spark学习笔记:使用RDD
  9. Java Web学习笔记04:JSP隐含对象
  10. HTML学习笔记:让div在屏幕居中,图片在div里居中