1、Shell命令行客户端

Hadoop 提供了文件系统的 shell 命令行客户端,使用方法如下:

hadoop fs <args>

文件系统 shell 包括与 Hadoop 分布式文件系统(HDFS)以及 Hadoop 支持的其他文件系统(如本地FS,HFTP FS,S3 FS 等)直接交互的各种类似shell的命令。所有FS shell命令都将路径URI作为参数。

URI格式为scheme://authority/path。对于HDFS,该scheme是hdfs,对于本地FS,该scheme是file。scheme和authority是可选的。如果未指定,则使用配置中指定的默认方案。

对于 HDFS,命令示例如下:

hadoop fs -ls hdfs://namenode:host/parent/childhadoop fs -ls /parent/child?

fs.defaultFS中有配置

对于本地文件系统,命令示例如下:

hadoop fs -ls file:///root/

如果使用的文件系统是 HDFS,则使用 hdfs dfs 也是可以的,此时

hadoop fs <args> = hdfs dfs <args>

2、Shell命令选项

选项名称

选项名称

含义

-ls

-ls < 路径 >

查看指定路径的当前目录结构

-lsr

-lsr < 路径 >

递归查看指定路径的目录结构

-du

-du < 路径 >

统计目录下个文件大小

-dus

-dus < 路径 >

汇总统计目录下文件 ( 夹 ) 大小

-count

-count [-q] < 路径 >

统计文件 ( 夹 ) 数量

-mv

-mv < 源路径 > < 目的路径 >

移动

-cp

-cp < 源路径 > < 目的路径 >

复制

-rm

-rm [-skipTrash] < 路径 >

删除文件 / 空白文件夹

-rmr

-rmr [-skipTrash] < 路径 >

递归删除

-put

-put < 多个 linux 上的文件 > <hdfs 路径 >

上传文件

-copyFromLocal

-copyFromLocal <多个 linux 上的文件 >

<hdfs 路径 >

从本地复制

-moveFromLocal

-moveFromLocal < 多个 linux 上的文件 >

<hdfs 路径 >

从本地移动

-getmerge

-getmerge < 源路径 > <linux 路径 >

合并到本地

-cat

-cat <hdfs 路径 >

查看文件内容

-text

-text <hdfs 路径 >

查看文件内容

-copyToLocal

-copyToLocal [-ignoreCrc] [-crc] [hdfs

源路径 ] [linux 目的路径 ]

从本地复制

-moveToLocal

-moveToLocal [-crc] <hdfs 源路径 > <li

nux 目的路径 >

从本地移动

-mkdir

-mkdir <hdfs 路径 >

创建空白文件夹

-setrep

-setrep [-R] [-w] < 副本数 > < 路径 >

修改副本数量

-touchz

-touchz < 文件路径 >

创建空白文件

-stat

-stat [format] < 路径 >

显示文件统计信息

-tail

-tail [-f] < 文件 >

查看文件尾部信息

-chmod

-chmod [-R] < 权限模式 > [ 路径 ]

修改权限

-chown

-chown [-R] [ 属主 ][:[ 属组 ]] 路径

修改属主

-chgrp

-chgrp [-R] 属组名称 路径

修改属组

-help

-help [ 命令选项 ]

帮助

3、Shell常用命令介绍

-ls
使用方法:hadoop fs -ls [-h] [-R]
功能:显示文件、目录信息。
示例:hadoop fs -ls /user/hadoop/file1

-mkdir

使用方法:hadoop fs -mkdir [-p]
功能:在 hdfs 上创建目录,-p 表示会创建路径中的各级父目录。
示例:hadoop fs -mkdir –p /user/hadoop/dir1

-put

使用方法:hadoop fs -put [-f] [-p] [ -| … ].
功能:将单个 src 或多个 srcs 从本地文件系统复制到目标文件系统。
-p:保留访问和修改时间,所有权和权限。
-f:覆盖目的地(如果已经存在)
示例:hadoop fs -put -f localfile1 localfile2 /user/hadoop/hadoopdir

-get

使用方法:hadoop fs -get [-ignorecrc] [-crc] [-p] [-f]
-ignorecrc:跳过对下载文件的 CRC 检查。
-crc:为下载的文件写 CRC 校验和。
功能:将文件复制到本地文件系统。
示例:hadoop fs -get hdfs://host:port/user/hadoop/file localfile

-appendToFile

使用方法:hadoop fs -appendToFile …
功能:追加一个文件到已经存在的文件末尾
示例:hadoop fs -appendToFile localfile /hadoop/hadoopfile

-cat

使用方法:hadoop fs -cat [-ignoreCrc] URI [URI …]
功能:显示文件内容到 stdout
示例:hadoop fs -cat /hadoop/hadoopfile

-tail

使用方法:hadoop fs -tail [-f] URI
功能:将文件的最后一千字节内容显示到 stdout。
-f 选项将在文件增长时输出附加数据。
示例:hadoop fs -tail /hadoop/hadoopfile

-chgrp

使用方法:hadoop fs -chgrp [-R] GROUP URI [URI …]
功能:更改文件组的关联。用户必须是文件的所有者,否则是超级用户。
-R 将使改变在目录结构下递归进行。
示例:hadoop fs -chgrp othergroup /hadoop/hadoopfile

-chmod

功能:改变文件的权限。使用-R 将使改变在目录结构下递归进行。
示例:hadoop fs -chmod 666 /hadoop/hadoopfile

-chown

功能:改变文件的拥有者。使用-R 将使改变在目录结构下递归进行。
示例:hadoop fs -chown someuser:somegrp /hadoop/hadoopfile

-copyFromLocal

使用方法:hadoop fs -copyFromLocal URI
功能:从本地文件系统中拷贝文件到 hdfs 路径去
示例:hadoop fs -copyFromLocal /root/1.txt /

-copyToLocal

功能:从 hdfs 拷贝到本地
示例:hadoop fs -copyToLocal /aaa/jdk.tar.gz

-cp

功能:从 hdfs 的一个路径拷贝 hdfs 的另一个路径
示例: hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2

-mv

功能:在 hdfs 目录中移动文件
示例: hadoop fs -mv /aaa/jdk.tar.gz /

-getmerge

功能:合并下载多个文件
示例:比如 hdfs 的目录 /aaa/下有多个文件:log.1, log.2,log.3,…
hadoop fs -getmerge /aaa/log.* ./log.sum

-rm

功能:删除指定的文件。只删除非空目录和文件。
-r 递归删除。
示例:hadoop fs -rm -r /aaa/bbb/

-df

功能:统计文件系统的可用空间信息
示例:hadoop fs -df -h /

-du

功能:显示目录中所有文件大小,当只指定一个文件时,显示此文件的大小。
示例:hadoop fs -du /user/hadoop/dir1

-setrep

功能:改变一个文件的副本系数。-R 选项用于递归改变目录下所有文件的副本系数。
示例:hadoop fs -setrep -w 3 -R /user/hadoop/dir1

Hadoop(3):HDFS 基本操作相关推荐

  1. Hadoop HDFS基本操作(ubuntu16.04 、Hadoop 3.0.3)

    hdfs shell的基本操作以及hdfsWeb查看文件 在安装好hadoop集群并成功的启动了hdfs之后,我们就可以利用hdfs对文件进行操作了,一下是对文件的一些基本操作 特别注意:访问HDFS ...

  2. Hadoop之HDFS(一)HDFS入门及基本Shell命令操作

    1 . HDFS 基本概念 1.1  HDFS 介绍 HDFS 是 Hadoop Distribute File System 的简称,意为:Hadoop 分布式文件系统.是 Hadoop 核心组件之 ...

  3. hdfs基本操作-python接口

    HDFS操作手册 hdfscli命令行 1 2 3 4 五 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 三十 ...

  4. 大数据处理实验(三)HDFS基本操作实验

    HDFS基本操作实验 1.Hadoop配置环境变量 2.列出当前目录下的文件 3.级联创建一个文件夹,类似这样一个目录:/mybook/input 4.上传文件至HDFS 5.从HDFS上下载文件 6 ...

  5. 安装完Hadoop之后,命令行输入hadoop或hdfs却找不到命令的解决方法

    安装完Hadoop之后,命令行输入hadoop或hdfs却找不到命令的解决方法 参考文章: (1)安装完Hadoop之后,命令行输入hadoop或hdfs却找不到命令的解决方法 (2)https:// ...

  6. Hadoop基础-HDFS集群中大数据开发常用的命令总结

    Hadoop基础-HDFS集群中大数据开发常用的命令总结 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 本盘博客仅仅列出了我们在实际生成环境中常用的hdfs命令,如果想要了解更多, ...

  7. eclipse远程连接hadoop_Hadoop之HDFS基本操作实验

    点击上方蓝色字关注我们! 基 础 实 验 Hadoop是一款开源的大数据通用处理平台,其提供了分布式存储和分布式离线计算.Hadoop由HDFS.YARN.MapReduce组成. Hadoop分布式 ...

  8. Hadoop之HDFS面试知识复习

    Hadoop之HDFS面试知识复习 目录 HDFS的存储机制 secondary namenode工作机制 NameNode与SecondaryNameNode 的区别与联系? hdfs整体架构介绍 ...

  9. Hadoop之HDFS读写数据流程

    Hadoop之HDFS读写数据流程 目录 HDFS写数据流程 HDFS读数据流程 网络拓扑概念 机架感知 1. HDFS写数据流程 HDFS写数据流程,如下图 客户端通过Distributed Fil ...

  10. Hadoop之HDFS常用Shell命令

    Hadoop之HDFS常用Shell命令 启动Hadoop集群 sbin/start-dfs.shsbin/start-yarn.sh -help:输出这个命令参数 hadoop fs -help r ...

最新文章

  1. java升序问题_JAVA并发理解之重排序问题
  2. 大数据在彩票预测和解决社会问题的用处
  3. python 测试 多线程 _thread和threading模块 线程同步,线程优先级队列
  4. 51nod1229-序列求和V2【数学,拉格朗日插值】
  5. 数据库实验四 用户权限管理
  6. 2021年终总结2022未来展望——人生天地之间,若白驹过隙,忽然而已
  7. WEB前端性能优化基本套路
  8. Atitit.人力资源管理原理与概论
  9. 企业选择WMS仓库管理系统免费版是否更好
  10. 智能算法——蚁群算法
  11. java中jpg转png_java 图片格式转换(pngjpg) 截图
  12. java 日历选择天_如何从Java中的日历对象构建天,月,年的列表?
  13. 《大数据之路:阿里巴巴大数据实践》-第1篇 数据技术篇 -第3章数据同步
  14. 服务器销售周总结怎么写,网管周工作总结范文的内容
  15. Docker-禁用userland代理
  16. vPro里面的v代表什么意思?
  17. 怎么画人体(动漫人体教程)
  18. 二、CI框架之MCV模型
  19. layui导出Excel表格自定义文件名称
  20. 有关多项式处理的各种算法总结

热门文章

  1. Oracle 入门必读
  2. [转]前国美高管讲述:首富黄光裕的另一面
  3. Python获取文件创建时间
  4. 2022.06.06-2022.06.12
  5. 什么是Trapdoor
  6. nginx找到端口并且关闭端口
  7. linux手机纠错软件,Linux系统手机——外观/配置/软件评分/平台/基本功能_手机_手机其它OS-中关村在线...
  8. 2018西普杯铁三西北赛区流量分析
  9. PHP输出斐波那契数列
  10. VS Code ---- 使用笔记