1、列出根目录下所有的目录或文件

hadoop fs -ls /

2、列出/user目录下的所有目录和文件

Hadoop  dfs  -ls  /user

3、列出/user目录及其子目录下的所有文件(谨慎使用)

hadoop dfs -ls -R /user

4、创建/soft目录

hadoop dfs -mkdir /soft

5、创建多级目录

hadoop dfs -mkdir -p /apps/windows/2017/01/01

6、创建一个空文件

hadoop dfs -touchz /wahaha

7、上传文件或目录到hdfs

hadoop dfs -put hello /

hadoop dfs -put hellodir/ /

8、将本地的wordcount.jar文件上传到/wordcount目录下

hadoop dfs -put wordcount.jar /wordcount

9、下载words.txt文件到本地

hadoop dfs -get /words.txt

10、将/stu/students.txt文件拷贝到本地

hadoop dfs -copyToLocal /stu/students.txt

11、将目录拷贝到本地

hadoop dfs -copyToLocal /home localdir

12、将word.txt文件拷贝到/wordcount/input/目录

hadoop dfs -copyFromLocal word.txt /wordcount/input

13、将word.txt文件从本地移动到/wordcount/input/目录下

hadoop dfs -moveFromLocal word.txt /wordcount/input/

14、将/stu/students.txt拷贝一份为/stu/students.txt.bak

hadoop dfs -cp /stu/students.txt /stu/students.txt.bak

15、将/flume/tailout/目录下的子目录或文件都拷贝到/logs目录(如果此目录不存在会创建)下

hadoop dfs -cp /flume/tailout/ /logs

16、重命名

hadoop dfs -mv /hello /hello2

17、将/word.txt文件重命名为/words.txt

hadoop dfs -mv /word.txt /words.txt

18、将/words.txt文件移动到/wordcount/input/目录下

hadoop dfs -mv /words.txt /wordcount/input/

19、删除一个文件

hadoop dfs -rm /wahaha

20、删除一个目录

hadoop dfs -rmr /home

21、将/ws目录以及子目录和文件都删除(谨慎使用)

hadoop dfs -rm -r /ws

22、删除以"xbs-"开头的目录及其子目录

hadoop dfs -rm -r /xbs-*

23、将/wordcount/output2/目录下的a.txt文件删除

hadoop dfs -rm /wordcount/output2/a.txt

24、将/wordcount/input/目录下面的所有文件都删除

hadoop dfs -rm /wordcount/input/*

25、查看HDFS集群的磁盘空间使用情况

hadoop dfs -df -h

26、查看文件

hadoop dfs -cat /hello

27、查看/word.txt文件的内容

hadoop dfs -cat /word.txt

28、将name.txt文件中的内容添加到/wordcount/input/words.txt文件中

hadoop dfs -appendToFile name.txt /wordcount/input/words.txt

29、动态查看/wordcount/input/words.txt文件的内容

hadoop dfs -tail -f /wordcount/input/words.txt

30、统计/flume目录总大小

hadoop dfs -du -s -h /flume

31、分别统计/flume目录下各个子目录(或文件)大小

hadoop dfs -du -s -h /flume/*

32、使用du文件和目录大小

hadoop dfs -du /

33、将指定目录下的所有内容merge成一个文件,下载到本地

hadoop dfs -getmerge /hellodir wa

34、运行jar包中的程序

//hadoop jar + 要执行的jar包 + 要运行的类 + 输入目录 + 输出目录
hadoop jar wordcount.jar com.xuebusi.hadoop.mr.WordCountDriver /wordcount/input /wordcount/out

35、查看hdfs集群状态

hdfs dfsadmin -report

36、查看dfs的情况

hadoop dfsadmin -report

37、查看正在跑的Java程序

jps

38、查看hadoop fs命令使用帮助

hdfs dfs -help      

39、常用命令

  1、查看指定目录下内容

hdfs dfs –ls [文件目录]

hdfs dfs -ls -R   /                   //显式目录结构

eg: hdfs dfs –ls /user/wangkai.pt

  2、打开某个已存在文件

hdfs dfs –cat [file_path]

eg:hdfs dfs -cat /user/wangkai.pt/data.txt

  3、将本地文件存储至hadoop

hdfs dfs –put [本地地址] [hadoop目录]

hdfs dfs –put /home/t/file.txt  /user/t  

  4、将本地文件夹存储至hadoop

hdfs dfs –put [本地目录] [hadoop目录] 
    hdfs dfs –put /home/t/dir_name /user/t

(dir_name是文件夹名)

  5、将hadoop上某个文件down至本地已有目录下

hadoop dfs -get [文件目录] [本地目录]

   hadoop dfs –get /user/t/ok.txt /home/t

  6、删除hadoop上指定文件

hdfs  dfs –rm [文件地址]

   hdfs dfs –rm /user/t/ok.txt

7、删除hadoop上指定文件夹(包含子目录等)

hdfs dfs –rm [目录地址]

    hdfs dfs –rmr /user/t

  8、在hadoop指定目录内创建新目录

hdfs dfs –mkdir /user/t

hdfs  dfs -mkdir - p /user/centos/hadoop

  9、在hadoop指定目录下新建一个空文件

使用touchz命令:

hdfs dfs  -touchz  /user/new.txt

  10、将hadoop上某个文件重命名

使用mv命令:

  hdfs dfs –mv  /user/test.txt  /user/ok.txt   (将test.txt重命名为ok.txt)

 11、将hadoop指定目录下所有内容保存为一个文件,同时down至本地

hdfs dfs –getmerge /user /home/t

12、将正在运行的hadoop作业kill掉

 hadoop job –kill  [job-id]

 13.查看帮助

  hdfs dfs -help        

40、安全模式

  (1)退出安全模式

NameNode在启动时会自动进入安全模式。安全模式是NameNode的一种状态,在这个阶段,文件系统不允许有任何修改。

系统显示Name node in safe mode,说明系统正处于安全模式,这时只需要等待十几秒即可,也可通过下面的命令退出安全模式:/usr/local/hadoop$bin/hadoop dfsadmin -safemode leave

  (2) 进入安全模式
    在必要情况下,可以通过以下命令把HDFS置于安全模式:/usr/local/hadoop$bin/hadoop dfsadmin -safemode enter

41、节点添加

添加一个新的DataNode节点,先在新加节点上安装好Hadoop,要和NameNode使用相同的配置(可以直接从NameNode复制),修改HADOOPHOME/conf/master文件,加入NameNode主机名。然后在NameNode节点上修改HADOOPHOME/conf/master文件,加入NameNode主机名。然后在NameNode节点上修改HADOOP_HOME/conf/slaves文件,加入新节点名,再建立新加节点无密码的SSH连接,运行启动命令为:/usr/local/hadoop$bin/start-all.sh

42、负载均衡

HDFS的数据在各个DataNode中的分布可能很不均匀,尤其是在DataNode节点出现故障或新增DataNode节点时。新增数据块时NameNode对DataNode节点的选择策略也有可能导致数据块分布不均匀。用户可以使用命令重新平衡DataNode上的数据块的分布:/usr/local/hadoop$bin/start-balancer.sh

43、补充

1.对hdfs操作的命令格式是hdfs dfs  
1.1 -ls 表示对hdfs下一级目录的查看
1.2 -lsr 表示对hdfs目录的递归查看
1.3 -mkdir 创建目录
1.4 -put 从Linux上传文件到hdfs
1.5 -get 从hdfs下载文件到linux
1.6 -text 查看文件内容
1.7 -rm 表示删除文件
1.7 -rmr 表示递归删除文件
2.hdfs在对数据存储进行block划分时,如果文件大小超过block,那么按照block大小进行划分;不如block size的,划分为一个块,是实际数据大小。
*****PermissionDenyException  权限不足**********  
hadoop常用命令:  
hdfs dfs  查看Hadoop HDFS支持的所有命令   
hdfs dfs –ls  列出目录及文件信息   
hdfs dfs –lsr  循环列出目录、子目录及文件信息   
hdfs dfs –put test.txt /user/sunlightcs  将本地文件系统的test.txt复制到HDFS文件系统的/user/sunlightcs目录下   
hdfs dfs –get /user/sunlightcs/test.txt .  将HDFS中的test.txt复制到本地文件系统中,与-put命令相反   
hdfs dfs –cat /user/sunlightcs/test.txt  查看HDFS文件系统里test.txt的内容   
hdfs dfs –tail /user/sunlightcs/test.txt  查看最后1KB的内容   
hdfs dfs –rm /user/sunlightcs/test.txt  从HDFS文件系统删除test.txt文件,rm命令也可以删除空目录   
hdfs dfs –rmr /user/sunlightcs  删除/user/sunlightcs目录以及所有子目录   
hdfs dfs –copyFromLocal test.txt /user/sunlightcs/test.txt  从本地文件系统复制文件到HDFS文件系统,等同于put命令   
hdfs dfs –copyToLocal /user/sunlightcs/test.txt test.txt  从HDFS文件系统复制文件到本地文件系统,等同于get命令   
hdfs dfs –chgrp [-R] /user/sunlightcs  修改HDFS系统中/user/sunlightcs目录所属群组,选项-R递归执行,跟linux命令一样   
hdfs dfs –chown [-R] /user/sunlightcs  修改HDFS系统中/user/sunlightcs目录拥有者,选项-R递归执行   
hdfs dfs –chmod [-R] MODE /user/sunlightcs  修改HDFS系统中/user/sunlightcs目录权限,MODE可以为相应权限的3位数或+/-{rwx},选项-R递归执行
hdfs dfs –count [-q] PATH  查看PATH目录下,子目录数、文件数、文件大小、文件名/目录名   
hdfs dfs –cp SRC [SRC …] DST       将文件从SRC复制到DST,如果指定了多个SRC,则DST必须为一个目录   
hdfs dfs –du PATH  显示该目录中每个文件或目录的大小   
hdfs dfs –dus PATH  类似于du,PATH为目录时,会显示该目录的总大小   
hdfs dfs –expunge  清空回收站,文件被删除时,它首先会移到临时目录.Trash/中,当超过延迟时间之后,文件才会被永久删除   
hdfs dfs –getmerge SRC [SRC …] LOCALDST [addnl]      获取由SRC指定的所有文件,将它们合并为单个文件,并写入本地文件系统中的LOCALDST,选项addnl将在每个文件的末尾处加上一个换行符   
hdfs dfs –touchz PATH   创建长度为0的空文件   
hdfs dfs –test –[ezd] PATH     对PATH进行如下类型的检查:  -e PATH是否存在,如果PATH存在,返回0,否则返回1  -z 文件是否为空,如果长度为0,返回0,否则返回1  -d 是否为目录,如果PATH为目录,返回0,否则返回1   
hdfs dfs –text PATH  显示文件的内容,当文件为文本文件时,等同于cat,文件为压缩格式(gzip以及hadoop的二进制序列文件格式)时,会先解压缩    hdfs dfs –help ls  查看某个[ls]命令的帮助文档

本文参考链接

(1)hadoop-常用的操作命令

http://baijiahao.baidu.com/s?id=1605161577224027726&wfr=spider&for=pc

(2)hadoop常用操作命令

https://www.cnblogs.com/luren-hometown/p/9468364.html

(3)【Hadoop篇】--Hadoop常用命令总结

https://www.cnblogs.com/LHWorldBlog/p/8514994.html

Hadoop常见命令 完整版相关推荐

  1. Hadoop常见命令总结

    常见基础命令: 启动Hadoop 进入HADOOP_HOME目录. 执行sh bin/start-all.sh 关闭Hadoop 进入HADOOP_HOME目录. 执行sh bin/stop-all. ...

  2. Hadoop源代码分析(完整版)

    Hadoop源代码分析(一) 关键字: 分布式云计算 Google的核心竞争技术是它的计算平台.Google的大牛们用了下面5篇文章,介绍了它们的计算设施.  GoogleCluster:http:/ ...

  3. Hadoop基础命令的使用

    Hadoop基础命令的使用 一. 任务描述 二. 任务目标 三. 任务环境 四. 任务分析 五. 任务实施 步骤1.启动hadoop服务 步骤2.hadoop常见命令 原创申明: 未经许可,禁止以任何 ...

  4. [shell] 让你提升命令行效率的 Bash 快捷键 [完整版]

    让你提升命令行效率的 Bash 快捷键 [完整版] 大牛---zhangkaixuan整理 生活在 Bash shell 中,熟记以下快捷键,将极大的提高你的命令行操作效率. 编辑命令 •      ...

  5. Linux dn命令大全,linux命令大全完整版.doc

    Linux命令大全完整版 目 录 TOC \h \z \t "001,1,002,2" 目 录 I 1. linux系统管理命令 1 adduser 1 chfn(change?f ...

  6. mysql命令参数_MySQL命令行参数完整版

    MySQL命令行参数完整版 mysql教程支持下面的选项: ---help,-? 显示帮助消息并退出. --batch,-B 打印结果,使用tab作为列间隔符,每个行占用新的一行.使用该选项,则mys ...

  7. linux下vi编辑器的命令大全,linux下VI编辑器命令大全(超级完整版)

    linux下VI编辑器命令大全(超级完整版) NOTICE:把这里提到的命令牢记心间,行走LINUX才能轻松自如! 这是基本功,练就此身本领后,方可学习上乘功夫 如若不按此步骤修练,结果会经脉尽断,真 ...

  8. Hadoop之——基于3台服务器搭建Hadoop3.x集群(实测完整版)

    转载请注明出处:https://blog.csdn.net/l1028386804/article/details/93892479 一.  服务器规划 二.Hadoop集群环境的准备 搭建Hadoo ...

  9. Hadoop实战视频分享 2013年完整版学习视频种子下载

    Hadoop实战视频分享_2013年完整版学习视频种子下载 http://pan.baidu.com/share/link?shareid=354989&uk=1778669877 本人有一套 ...

  10. Hadoop实战视频分享_2013年完整版学习视频种子下载

    Hadoop实战视频分享_2013年完整版学习视频种子下载 http://pan.baidu.com/share/link?shareid=354989&uk=1778669877 本人有一套 ...

最新文章

  1. 【读】这一次,让我们再深入一点 - UDP协议
  2. 【运筹学】线性规划数学模型 ( 单纯形法 | 第二次迭代 | 方程组同解变换 | 生成新单纯形表 | 计算检验数 | 最优解判定 | 线性规划解个数分析 )
  3. [MySQL FAQ]系列 -- mysqldump出错一例:打开文件数太多
  4. 漫谈概率 PCA 和变分自编码器
  5. idea查看方法的返回类型和自动出来变量
  6. Python 基础(常用数据结构)
  7. uni-app之新建项目无模板选择以及点击创建后一直卡住不动
  8. 天池 在线编程 到达终点
  9. 学习Oracle SQL loader 的使用
  10. 7 | Spatial-based GNN/convolution模型之GrapySAGE
  11. 远程win10系统桌面时提示凭证不工作问题的终极解决办法
  12. 公安如何通过大数据破案?知识图谱实现公安情报分析(人工智能大数据公司)
  13. 微软拼音输入法 2003 精选版 怎么用
  14. python找数字_python – 找到与给定数字最接近的数字
  15. c语言 extern的作用
  16. 使用SQLite打开本地.db文件
  17. 分享下最近的Nvidia GPU 3060 laptop GPU、linzhi、Tesla算力曲线
  18. linux怎么查硬盘是否故障,怎么检查硬盘是否有问题
  19. 《算法笔记》9.4小节 9.5小节——数据结构专题(2)->二叉查找树(BST)->平衡二叉树(AVL)
  20. AngularJS 控制器

热门文章

  1. 佳顺通用进销存系统去广告_怎样选择免费进销存软件?
  2. 安卓bochs安装linux教程,Ubuntu环境下安装Bochs
  3. 【Pygame闯关游戏】手残勿入,最新虐心游戏《见缝插针》——不得不玩的一款游戏。
  4. 如何恢复删除的文件?wps文件恢复,4种方法教你找回来
  5. python实现自动开机_python自动循环定时开关机(非重启)测试
  6. selenium下载和安装
  7. c语言ascii字母比较大小,C语言中,大写字母M的ASCII码值比小写字母m的ASCII码值大。...
  8. K3 Cloud 表体显示序号
  9. ESP32 ESP-IDF 获取GPS北斗模块的经纬度和日期时间
  10. 大图书馆 #2 大教堂与集市