1、列出所有Hadoop Shell支持的命令 $ bin/hadoop fs -help

2、显示关于某个命令的详细信息

$ bin/hadoop fs -help command-name

3、用户可使用以下命令在指定路径下查看历史日志汇总

$ bin/hadoop job -history output-dir #这条命令会显示作业的细节信息,失败和终止的任务细节。

4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看 $ bin/hadoop job -history all output-dir

5、 格式化一个新的分布式文件系统: $ bin/hadoop namenode -format

6、在分配的NameNode 上,运行下面的命令启动HDFS :

$ bin/start-dfs.sh #脚本会参照NameNode 上

${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave 上启动DataNode 守护进程。

7、在分配的JobTracker 上,运行下面的命令启动Map/Reduce:

$ bin/start-mapred.sh #脚本会参照JobTracker 上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave 上启动TaskTracker 守护进程。

8、在分配的NameNode 上,执行下面的命令停止HDFS : $ bin/stop-dfs.sh #脚本会参照NameNode 上

${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave 上停止DataNode 守护进程。

9、在分配的JobTracker 上,运行下面的命令停止Map/Reduce:

$ bin/stop-mapred.sh #脚本会参照JobTracker 上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave 上停止TaskTracker 守护进程。

10、创建一个名为 /foodir 的目录

$ bin/hadoop dfs -mkdir /foodir

11、创建一个名为 /foodir 的目录

$ bin/hadoop dfs -mkdir /foodir

12、查看名为 /foodir/myfile.txt 的文件内容 $ bin/hadoop dfs -cat /foodir/myfile.txt

13、将集群置于安全模式

$ bin/hadoop dfsadmin -safemode enter

14、显示Datanode 列表

$ bin/hadoop dfsadmin -report

15、使Datanode 节点datanode name退役

$ bin/hadoop dfsadmin -decommission datanodename

16、bin/hadoop dfsadmin -help 命令能列出所有当前支持的命令。

比如:

* -report :报告HDFS 的基本统计信息。有些信息也可以在NameNode Web服务首页看到。

* -safemode:虽然通常并不需要,但是管理员的确可以手动让NameNode 进入或离开安全模式。

* -finalizeUpgrade :删除上一次升级时制作的集群备份。

17、显式地将HDFS 置于安全模式

$ bin/hadoop dfsadmin -safemode

18、在升级之前,管理员需要用(升级终结操作) 命令删除存在的备份文件

$ bin/hadoop dfsadmin -finalizeUpgrade

19、能够知道是否需要对一个集群执行升级终结操作。 $ dfsadmin -upgradeProgress status

20、使用-upgrade 选项运行新的版本

$ bin/start-dfs.sh -upgrade

21、如果需要退回到老版本, 就必须停止集群并且部署老版本的Hadoop ,用回滚选项启动集群

$ bin/start-dfs.h -rollback

22、下面的新命令或新选项是用于支持配额,前两个是管理员命令。

* dfsadmin -setquota ...

把每个目录配额设为N 。这个命令会在每个目录上尝试,如果N 不是一个正的长整型数,目录不存在或是文件名或者目录超过配额则会产生错误报告。

* dfsadmin -clrquota ...

为每个目录删除配额。这个命令会在每个目录上尝试,如果目录不存在或者是文件,则会产生错误报告。如果目录原来没有设置配额不会报错。

* fs -count -q ...

使用-q 选项,会报告每个目录设置的配额以及剩余配额。如果目录没有设置配额,会报告none 和inf 。

23、创建一个hadoop 档案文件

$ hadoop archive -archiveName NAME *

#-archiveName NAME 要创建的档案的名字。

#src 文件系统的路径名,和通常含正则表达的一样。 #dest 保存档案文件的目标目录。

24、递归地拷贝文件或目录

$ hadoop distcp

srcurl 源uri

desturl 目标uri

25、运行HDFS 文件系统检查工具(fsck tools)

用法:hadoop fsck [GENERIC_OPTIONS] [-move | -delete | -openforwrite] [-files [-blocks [-locations | -racks]]]

命令选项 描述

----------------------

检查的起始目录。

-move 移动受损文件到/lost+found

-delete 删除受损文件。

-openforwrite 打印出写打开的文件。

-files 打印出正被检查的文件。

-blocks 打印出块信息报告。

-locations 打印出每个块的位置信息。

-racks 打印出data-node 的网络拓扑结构。

26、用于和Map Reduce作业交互和命令(jar)

用法:hadoop job [GENERIC_OPTIONS] [-submit ] |

[-counter ] | [-kill ] |

[-events <#-of-events>] | [-history [all] ] |

[-list [all]] | [-kill-task ] | [-fail-task ] 命令选项 描述

------------------ [-status ] |

-submit 提交作业

-status 打印map 和reduce 完成百分比和所有计数器 -counter 打印计数器的值

-kill 杀死指定作业

-events <#-of-events> 打印给定范围内jobtracker 接收到的事件细节

-history [all] -history 打印作业的细节、失败及被杀死原因的细节

-list [all] -list all 显示所有作业 -list只显示将要完成的作业

-kill-task 杀死任务被杀死的任务不会不利于失败尝试

-fail-task 使任务失败 被失败的任务会对失败尝试不利

27、运行pipes 作业

用法:hadoop pipes [-conf ] [-jobconf , , ...]

[-input ]

[-output ] [-jar ] [-inputformat ] [-map ]

[-partitioner ]

[-reduce ] [-writer ] [-program ] [-reduces ] 命令选项 描述

------------------

-conf 作业的配置

-jobconf , , ... 增加/覆盖作业的配置项 -input 输入目录

-output 输出目录

-jar Jar文件名

-inputformat InputFormat类

-map Java Map类

-partitioner Java Partitioner

-reduce Java Reduce类

-writer Java RecordWriter

-program 可执行程序的URI

-reduces reduce个数

28、打印版本信息。

用法:hadoop version

29、hadoop 脚本可用于调调用任何类。

用法:hadoop CLASSNAME #运行名字为CLASSNAME 的类。

30、运行集群平衡工具管理员可以简单的按Ctrl-C 来停止平衡过程(balancer)

用法:hadoop balancer [-threshold ]

命令选项 描述

------------------

-threshold 磁盘容量的百分比。这会覆盖缺省的阀值。

31、获取或设置每个守护进程的日志级别(daemonlog)。 用法:hadoop daemonlog -getlevel

用法:hadoop daemonlog -setlevel

命令选项 描述

------------------

-getlevel 打印运行在的守护进程的日志级别 -setlevel 设置运行在的守护进程的日志级别

32、运行一个HDFS 的datanode 。

用法:hadoop datanode [-rollback]

命令选项 描述

------------------

-rollback 将datanode 回滚到前一个版本。这需要在停止datanode ,分发老的hadoop 版本之后使用。

33、运行一个HDFS 的dfsadmin 客户端

用法:hadoop dfsadmin [GENERIC_OPTIONS] [-report]

[-safemode enter | leave

| get | wait] [-refreshNodes] [-finalizeUpgrade]

[-upgradeProgress status |

details | force] [-metasave filename]

[-setQuota ...] [-clrQuota ...] [-help [cmd]]

34、运行MapReduce job Tracker节点(jobtracker)。 用法:hadoop jobtracker

35、运行namenode 。有关升级,回滚,升级终结的更多信息请参考官方升级和回滚的文档信息

用法:hadoop namenode [-format] | [-upgrade] |

[-rollback] | [-finalize] | [-importCheckpoint]

命令选项 描述

-----------------------------------------------------------------------------------------------------------------------------

-format 格式化namenode 。它启动namenode ,格式化namenode ,之后关闭namenode

-upgrade 分发新版本的hadoop 后,namenode 应以upgrade 选项启动

-rollback 将namenode 回滚到前一版本。这个选项要在停止集群,分发老的hadoop 版本后使用

-finalize finalize 会删除文件系统的前一状态。最近的升级会被持久化,rollback 选项将再不可用,升级终结操作之后会停掉namenode

-importCheckpoint 从检查点目录装载镜像并保存到当前检查点目录,检查点目录由fs.checkpoint.dir 指定

36、运行HDFS 的secondary namenode。

用法:hadoop secondarynamenode [-checkpoint

[force]] | [-geteditsize]

-----------------

命令选项 描述

-checkpoint [force] 如果EditLog 的大小>=

fs.checkpoint.size 启动Secondary namenode的检查点过程。若使用了-force 将不考虑EditLog 的大小

-geteditsize 打印EditLog 大小。

37、运行MapReduce 的task Tracker节点。 用法:hadoop tasktracker

38、显式地将HDFS 置于安全模式

$ bin/hadoop dfsadmin -safemode

39、在升级之前,管理员需要用(升级终结操作) 命令删除存在的备份文件

$ bin/hadoop dfsadmin -finalizeUpgrade

40、能够知道是否需要对一个集群执行升级终结操作。 $ dfsadmin -upgradeProgress status

41、使用-upgrade 选项运行新的版本

$ bin/start-dfs.sh -upgrade

42、如果需要退回到老版本, 就必须停止集群并且部署老版本的Hadoop ,用回滚选项启动集群

$ bin/start-dfs.h -rollback

转载于:https://www.cnblogs.com/xiaolebailetu/p/10027603.html

hadoop运维必备命令相关推荐

  1. 拿走不谢!创客学院教你64个Linux运维必备命令行工具

    系统管理员(sysadmins)负责日常维护生产系统和服务.其中一个关键任务就是保证功能性服务能24小时工作.为了这个,他们得很小心地计划备份方式,灾难管理策略,定时维护,安全审查,等等.和任意其他管 ...

  2. 运维必备命令之tldr

    1. 安装tldr macOS brew install tldr Ubuntu apt install tldr CentOS yum install tldr 2. 使用帮助 由于目前的主力生产设 ...

  3. Linux 运维必备150 个命令,值得收藏!

    Linux 运维必备 150 个命令,请配合下面的网站使用.定位你需要使用的命令,然后去这个网站查询详细用法即可. 地址:wangchujiang.com/linux-command/ 这个网站来自 ...

  4. linux运维必备178个命令

    linux运维必备178个命令 ●线上查询及帮助命令(2 个) ●文件和目录操作命令(13 个) ●查看文件及内容处理命令(22 个) ●文件压缩及解压缩命令(4 个) ●信息显示命令(12 个) ● ...

  5. Linux排查错误的命令,运维必备:常见的Linux系统故障及其排查的方法

    原标题:运维必备:常见的Linux系统故障及其排查的方法 Linux是当前市场上比较常用的.自由开源操作系统,也是云计算运维人员日常工作中的好帮手.不过很多初学云计算的小伙伴面对Linux系统出现的故 ...

  6. 运维必备生存指南 |《王者荣耀》乱象竟然也能反映出运维生存现状?

    <王者荣耀>已成为社会现象级手游,随之问题接踵而来.部分小学生沉迷后为买游戏道具刷爆家长银行卡.为抢夺游戏中"buff(增益效果)"大打出手. 这些问题怎么产生? 责任 ...

  7. Hadoop运维记录系列(十二)

    从公司离职有几天了,今天回去看同事,想一起吃饭,没成想摊上大事了.说下午hadoop集群的机房停电了,然后集群就启动不了了,几个人从下午4点多折腾到8点多还没搞定,有几台服务器找不到硬盘,还有内网pi ...

  8. 【收藏】运维必备的问题定位工具及案例分析

    [欢迎关注微信公众号:厦门微思网络] 微思网络(官网):https://www.xmws.cn/ [摘要]本文主要介绍各种问题定位的工具,并结合案例分析问题. [作者]李航,多年的底层开发经验,在高性 ...

  9. 13 款高逼格且实用的 Linux 运维必备工具

    13 款高逼格且实用的 Linux 运维必备工具 转自:https://mp.weixin.qq.com/s?__biz=MzI0MDQ4MTM5NQ==&mid=2247487674& ...

最新文章

  1. 算法----------字符串的排列(Java版本)
  2. qt sse指令加速配置
  3. Rancher使用--后端流水线
  4. 从民宅到独栋大厦 我们搬家啦!
  5. c# 给文件/文件夹 管理用户权限
  6. 【Tiny4412】 编译dnw源码报错 /lib/modules/2.6.32-431.el6.x86_64/build/: No such file or directory
  7. Deep Belief Networks
  8. PAT-A Sign In and Sign Out
  9. mybatis generator生成example_[Springboot系列] SpringBoot与Mybatis结合
  10. jquery设置宽_JavaScript学习笔记(三十二) jQuery(中)
  11. 训练日志 2018.10.31
  12. Python脚本运行出现语法错误:IndentationError: unindent does not match any outer indentation level
  13. RTP封装G711源代码
  14. dom4j.jar有什么作用?
  15. Python GStreamer Tutorial
  16. struts2的s:datetimepicker日期时间标签选择器
  17. 安装TensorFlow-gpu
  18. 上课笔记-指针(从百草园到三味书屋)
  19. uni-app实现小程序身份证取景框
  20. 通讯录——C语言实现

热门文章

  1. 正则表达式验证代码(字母、数字、Email、网址、电话号码、汉字、身份证号码)
  2. ArcGIS中QueryTask,FindTask,IndentifyTask 之间的区别
  3. ubuntu等linux下自定义设置程序代理工具proxychains简介
  4. Flink or Spark?实时计算框架在K12场景的应用实践
  5. 小白科普:虚拟化简史
  6. 有赞多级缓存解决方案怎么做的,你知道吗?
  7. Java 8系列之Lambda表达式
  8. 什么决定了程序员的价格,程序员该如何溢价
  9. spring mvc事务没有生效的原因
  10. Flowable节点跳转