1、Shell命令行客户端

Hadoop 提供了文件系统的 shell 命令行客户端,使用方法如下:

hadoop fs <args>

文件系统 shell 包括与 Hadoop 分布式文件系统(HDFS)以及 Hadoop 支持的其他文件系统(如本地FS,HFTP FS,S3 FS 等)直接交互的各种类似shell的命令。所有FS shell命令都将路径URI作为参数。

URI格式为scheme://authority/path。对于HDFS,该scheme是hdfs,对于本地FS,该scheme是file。scheme和authority是可选的。如果未指定,则使用配置中指定的默认方案。

对于 HDFS,命令示例如下:

hadoop fs -ls hdfs://namenode:host/parent/childhadoop fs -ls /parent/child?

fs.defaultFS中有配置

对于本地文件系统,命令示例如下:

hadoop fs -ls file:///root/

如果使用的文件系统是 HDFS,则使用 hdfs dfs 也是可以的,此时

hadoop fs <args> = hdfs dfs <args>

2、Shell命令选项

选项名称

选项名称

含义

-ls

-ls < 路径 >

查看指定路径的当前目录结构

-lsr

-lsr < 路径 >

递归查看指定路径的目录结构

-du

-du < 路径 >

统计目录下个文件大小

-dus

-dus < 路径 >

汇总统计目录下文件 ( 夹 ) 大小

-count

-count [-q] < 路径 >

统计文件 ( 夹 ) 数量

-mv

-mv < 源路径 > < 目的路径 >

移动

-cp

-cp < 源路径 > < 目的路径 >

复制

-rm

-rm [-skipTrash] < 路径 >

删除文件 / 空白文件夹

-rmr

-rmr [-skipTrash] < 路径 >

递归删除

-put

-put < 多个 linux 上的文件 > <hdfs 路径 >

上传文件

-copyFromLocal

-copyFromLocal <多个 linux 上的文件 >

<hdfs 路径 >

从本地复制

-moveFromLocal

-moveFromLocal < 多个 linux 上的文件 >

<hdfs 路径 >

从本地移动

-getmerge

-getmerge < 源路径 > <linux 路径 >

合并到本地

-cat

-cat <hdfs 路径 >

查看文件内容

-text

-text <hdfs 路径 >

查看文件内容

-copyToLocal

-copyToLocal [-ignoreCrc] [-crc] [hdfs

源路径 ] [linux 目的路径 ]

从本地复制

-moveToLocal

-moveToLocal [-crc] <hdfs 源路径 > <li

nux 目的路径 >

从本地移动

-mkdir

-mkdir <hdfs 路径 >

创建空白文件夹

-setrep

-setrep [-R] [-w] < 副本数 > < 路径 >

修改副本数量

-touchz

-touchz < 文件路径 >

创建空白文件

-stat

-stat [format] < 路径 >

显示文件统计信息

-tail

-tail [-f] < 文件 >

查看文件尾部信息

-chmod

-chmod [-R] < 权限模式 > [ 路径 ]

修改权限

-chown

-chown [-R] [ 属主 ][:[ 属组 ]] 路径

修改属主

-chgrp

-chgrp [-R] 属组名称 路径

修改属组

-help

-help [ 命令选项 ]

帮助

3、Shell常用命令介绍

-ls
使用方法:hadoop fs -ls [-h] [-R]
功能:显示文件、目录信息。
示例:hadoop fs -ls /user/hadoop/file1

-mkdir

使用方法:hadoop fs -mkdir [-p]
功能:在 hdfs 上创建目录,-p 表示会创建路径中的各级父目录。
示例:hadoop fs -mkdir –p /user/hadoop/dir1

-put

使用方法:hadoop fs -put [-f] [-p] [ -| … ].
功能:将单个 src 或多个 srcs 从本地文件系统复制到目标文件系统。
-p:保留访问和修改时间,所有权和权限。
-f:覆盖目的地(如果已经存在)
示例:hadoop fs -put -f localfile1 localfile2 /user/hadoop/hadoopdir

-get

使用方法:hadoop fs -get [-ignorecrc] [-crc] [-p] [-f]
-ignorecrc:跳过对下载文件的 CRC 检查。
-crc:为下载的文件写 CRC 校验和。
功能:将文件复制到本地文件系统。
示例:hadoop fs -get hdfs://host:port/user/hadoop/file localfile

-appendToFile

使用方法:hadoop fs -appendToFile …
功能:追加一个文件到已经存在的文件末尾
示例:hadoop fs -appendToFile localfile /hadoop/hadoopfile

-cat

使用方法:hadoop fs -cat [-ignoreCrc] URI [URI …]
功能:显示文件内容到 stdout
示例:hadoop fs -cat /hadoop/hadoopfile

-tail

使用方法:hadoop fs -tail [-f] URI
功能:将文件的最后一千字节内容显示到 stdout。
-f 选项将在文件增长时输出附加数据。
示例:hadoop fs -tail /hadoop/hadoopfile

-chgrp

使用方法:hadoop fs -chgrp [-R] GROUP URI [URI …]
功能:更改文件组的关联。用户必须是文件的所有者,否则是超级用户。
-R 将使改变在目录结构下递归进行。
示例:hadoop fs -chgrp othergroup /hadoop/hadoopfile

-chmod

功能:改变文件的权限。使用-R 将使改变在目录结构下递归进行。
示例:hadoop fs -chmod 666 /hadoop/hadoopfile

-chown

功能:改变文件的拥有者。使用-R 将使改变在目录结构下递归进行。
示例:hadoop fs -chown someuser:somegrp /hadoop/hadoopfile

-copyFromLocal

使用方法:hadoop fs -copyFromLocal URI
功能:从本地文件系统中拷贝文件到 hdfs 路径去
示例:hadoop fs -copyFromLocal /root/1.txt /

-copyToLocal

功能:从 hdfs 拷贝到本地
示例:hadoop fs -copyToLocal /aaa/jdk.tar.gz

-cp

功能:从 hdfs 的一个路径拷贝 hdfs 的另一个路径
示例: hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2

-mv

功能:在 hdfs 目录中移动文件
示例: hadoop fs -mv /aaa/jdk.tar.gz /

-getmerge

功能:合并下载多个文件
示例:比如 hdfs 的目录 /aaa/下有多个文件:log.1, log.2,log.3,…
hadoop fs -getmerge /aaa/log.* ./log.sum

-rm

功能:删除指定的文件。只删除非空目录和文件。
-r 递归删除。
示例:hadoop fs -rm -r /aaa/bbb/

-df

功能:统计文件系统的可用空间信息
示例:hadoop fs -df -h /

-du

功能:显示目录中所有文件大小,当只指定一个文件时,显示此文件的大小。
示例:hadoop fs -du /user/hadoop/dir1

-setrep

功能:改变一个文件的副本系数。-R 选项用于递归改变目录下所有文件的副本系数。
示例:hadoop fs -setrep -w 3 -R /user/hadoop/dir1

Hadoop(3):HDFS 基本操作相关推荐

  1. Hadoop HDFS基本操作(ubuntu16.04 、Hadoop 3.0.3)

    hdfs shell的基本操作以及hdfsWeb查看文件 在安装好hadoop集群并成功的启动了hdfs之后,我们就可以利用hdfs对文件进行操作了,一下是对文件的一些基本操作 特别注意:访问HDFS ...

  2. Hadoop之HDFS(一)HDFS入门及基本Shell命令操作

    1 . HDFS 基本概念 1.1  HDFS 介绍 HDFS 是 Hadoop Distribute File System 的简称,意为:Hadoop 分布式文件系统.是 Hadoop 核心组件之 ...

  3. hdfs基本操作-python接口

    HDFS操作手册 hdfscli命令行 1 2 3 4 五 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 三十 ...

  4. 大数据处理实验(三)HDFS基本操作实验

    HDFS基本操作实验 1.Hadoop配置环境变量 2.列出当前目录下的文件 3.级联创建一个文件夹,类似这样一个目录:/mybook/input 4.上传文件至HDFS 5.从HDFS上下载文件 6 ...

  5. 安装完Hadoop之后,命令行输入hadoop或hdfs却找不到命令的解决方法

    安装完Hadoop之后,命令行输入hadoop或hdfs却找不到命令的解决方法 参考文章: (1)安装完Hadoop之后,命令行输入hadoop或hdfs却找不到命令的解决方法 (2)https:// ...

  6. Hadoop基础-HDFS集群中大数据开发常用的命令总结

    Hadoop基础-HDFS集群中大数据开发常用的命令总结 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 本盘博客仅仅列出了我们在实际生成环境中常用的hdfs命令,如果想要了解更多, ...

  7. eclipse远程连接hadoop_Hadoop之HDFS基本操作实验

    点击上方蓝色字关注我们! 基 础 实 验 Hadoop是一款开源的大数据通用处理平台,其提供了分布式存储和分布式离线计算.Hadoop由HDFS.YARN.MapReduce组成. Hadoop分布式 ...

  8. Hadoop之HDFS面试知识复习

    Hadoop之HDFS面试知识复习 目录 HDFS的存储机制 secondary namenode工作机制 NameNode与SecondaryNameNode 的区别与联系? hdfs整体架构介绍 ...

  9. Hadoop之HDFS读写数据流程

    Hadoop之HDFS读写数据流程 目录 HDFS写数据流程 HDFS读数据流程 网络拓扑概念 机架感知 1. HDFS写数据流程 HDFS写数据流程,如下图 客户端通过Distributed Fil ...

  10. Hadoop之HDFS常用Shell命令

    Hadoop之HDFS常用Shell命令 启动Hadoop集群 sbin/start-dfs.shsbin/start-yarn.sh -help:输出这个命令参数 hadoop fs -help r ...

最新文章

  1. 计算机视觉:Bag of words算法实现过程中出现错误及解决方案
  2. 批量 杀掉 mysql 连接_批量杀死MySQL连接的几种方法
  3. 刚入行的软件测试工程师如何自学软件测试?0 基础该怎么学习软件测试
  4. WebRTC成为W3C和IETF正式标准
  5. 信号集操作函数,信号未决、阻塞、递达
  6. 蓝桥杯vip答案java_Java实现 蓝桥杯VIP 算法训练 麦森数
  7. redis cluster管理工具redis-trib.rb详解
  8. 空号检测、号码状态查询接口免费测试、精准实时版(支持携号转网查询)
  9. python绘制风玫瑰图_用Python matplotlib 怎么画风向玫瑰图 能给出程序的
  10. JS之 生成qq在线客服
  11. 解决nginx error!The page is temporarily unavailable.
  12. 77. Combinations
  13. JS中各种width和height的区别
  14. linux利用vsftpd 搭建FTP服务器
  15. codeforces 438D
  16. java keyevent 组合键_JAVA中KeyEvent类键盘各键的代码
  17. 细菌觅食算法BFOA
  18. 新手如何预防网站域名劫持?预防劫持工具有哪些
  19. H.266/VVC相关技术学习笔记21:帧间预测中五种Merge模式的熵编码方式
  20. 意向性:或如何将之安置在自然界

热门文章

  1. 医疗健康产品展-京东健康
  2. 国美在线2014情人节报告:80后最浪漫
  3. 【架构】RPC 使用 Haproxy、keepalive作为负载均衡
  4. Linux三剑客(awk、sed、grep) 和 正则表达式
  5. CSDN——转载文章
  6. 使用nw.js快速开发一个基于浏览器的小型桌面端(适用于高校学生完成可视化实验小作业)
  7. mysql 数据库命令大全_常用的MySQL数据库命令大全
  8. id主键的创建及作用
  9. stringbuffer和thread.join对线程控制的问题以及线程协作的问题
  10. array.map循环,使用return或者break都不能退出循环