[Hadoop基础]-- hadoop shell命令汇总
Hadoop Shell命令
- FS Shell
cat
chgrp
chmod
chown
copyFromLocal
copyToLocal
cp
du
dus
expunge
get
getmerge
ls
lsr
mkdir
movefromLocal
mv
put
rm
rmr
setrep
stat
tail
test
text
touchz
FS Shell
cat
使用方法:hadoop fs -cat URI [URI …]
- hadoop fs -cat hdfs://host1:port1/file1 hdfs://host2:port2/file2
- hadoop fs -cat file:///file3 /user/hadoop/file4
chgrp
改变文件所属的组。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。更多的信息请参见HDFS权限用户指南。
chmod
使用方法:hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI …]
改变文件的权限。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。更多的信息请参见HDFS权限用户指南。
chown
使用方法:hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]
改变文件的拥有者。使用-R将使改变在目录结构下递归进行。命令的使用者必须是超级用户。更多的信息请参见HDFS权限用户指南。
copyFromLocal
使用方法:hadoop fs -copyFromLocal <localsrc> URI
copyToLocal
使用方法:hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>
cp
使用方法:hadoop fs -cp URI [URI …] <dest>
将文件从源路径复制到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。
示例:
- hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2
- hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir
du
使用方法:hadoop fs -du URI [URI …]
dus
expunge
清空回收站。请参考HDFS设计文档以获取更多关于回收站特性的信息。
get
使用方法:hadoop fs -get [-ignorecrc] [-crc] <src> <localdst>
复制文件到本地文件系统。可用-ignorecrc选项复制CRC校验失败的文件。使用-crc选项复制文件以及CRC信息。
- hadoop fs -get /user/hadoop/file localfile
- hadoop fs -get hdfs://host:port/user/hadoop/file localfile
getmerge
使用方法:hadoop fs -getmerge <src> <localdst> [addnl]
接受一个源目录和一个目标文件作为输入,并且将源目录中所有的文件连接成本地目标文件。addnl是可选的,用于指定在每个文件结尾添加一个换行符。
ls
lsr
使用方法:hadoop fs -lsr <args>
ls命令的递归版本。类似于Unix中的ls -R。
mkdir
接受路径指定的uri作为参数,创建这些目录。其行为类似于Unix的mkdir -p,它会创建路径中的各级父目录。
- hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2
- hadoop fs -mkdir hdfs://host1:port1/user/hadoop/dir hdfs://host2:port2/user/hadoop/dir
movefromLocal
使用方法:dfs -moveFromLocal <src> <dst>
mv
使用方法:hadoop fs -mv URI [URI …] <dest>
将文件从源路径移动到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。不允许在不同的文件系统间移动文件。
示例:
- hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2
- hadoop fs -mv hdfs://host:port/file1 hdfs://host:port/file2 hdfs://host:port/file3 hdfs://host:port/dir1
put
使用方法:hadoop fs -put <localsrc> ... <dst>
从本地文件系统中复制单个或多个源路径到目标文件系统。也支持从标准输入中读取输入写入目标文件系统。
- hadoop fs -put localfile /user/hadoop/hadoopfile
- hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir
- hadoop fs -put localfile hdfs://host:port/hadoop/hadoopfile
- hadoop fs -put - hdfs://host:port/hadoop/hadoopfile
从标准输入中读取输入。
rm
使用方法:hadoop fs -rm URI [URI …]
删除指定的文件。只删除非空目录和文件。请参考rmr命令了解递归删除。
示例:
rmr
使用方法:hadoop fs -rmr URI [URI …]
setrep
使用方法:hadoop fs -setrep [-R] <path>
改变一个文件的副本系数。-R选项用于递归改变目录下所有文件的副本系数。
stat
使用方法:hadoop fs -stat URI [URI …]
tail
将文件尾部1K字节的内容输出到stdout。支持-f选项,行为和Unix中一致。
test
使用方法:hadoop fs -test -[ezd] URI
选项:
-e 检查文件是否存在。如果存在则返回0。
-z 检查文件是否是0字节。如果是则返回0。
-d 如果路径是个目录,则返回1,否则返回0。
text
将源文件输出为文本格式。允许的格式是zip和TextRecordInputStream。
touchz
使用方法:hadoop fs -touchz URI [URI …]
[Hadoop基础]-- hadoop shell命令汇总相关推荐
- 大数据_07 【hadoop HDFS的shell命令操作】
大数据_07 [hadoop HDFS的shell命令操作] 01 基本语法 02 常用普通命令实操 03 HDFS常用高级命令 04 HDFS适用场景 05 HDFS不适用场景 06 hdfs的安全 ...
- hadoop基础----hadoop实战(二)-----hadoop操作hdfs---hdfs文件系统常用命令
我们在前面已经介绍过了 hadoop 1.0是由2大部分组成的: hdfs + mapreduce 也对hdfs做了相关介绍. hadoop基础----hadoop理论(三)-----hadoop分布 ...
- hadoop基础----hadoop实战(七)-----hadoop管理工具---使用Cloudera Manager安装Hadoop---Cloudera Manager和CDH5.8离线安装
hadoop基础----hadoop实战(六)-----hadoop管理工具---Cloudera Manager---CDH介绍 简介 我们在上篇文章中已经了解了CDH,为了后续的学习,我们本章就来 ...
- hadoop基础----hadoop理论(四)-----hadoop分布式并行计算模型MapReduce详解
我们在前一章已经学习了HDFS: hadoop基础----hadoop理论(三)-----hadoop分布式文件系统HDFS详解 我们已经知道Hadoop=HDFS(文件系统,数据存储技术相关)+ M ...
- hadoop的fs shell命令
目录 官网fs shell命令地址 官网HDFS权限管理用户指南 FS Shell是什么 cat chgrp chmod chown copyFromLocal copyToLocal cp du d ...
- Linux Android 常用shell命令汇总 不断更新
文章目录 @[toc] 01 前言 02 正文 01 前言 Linux shell命令应该算是非常入门的东西,但是实际上在使用的时候,会遇到各种各样的问题,前几天我在我们的项目上需要做一个功能,根据进 ...
- hadoop集群启动命令汇总
sbin/start-all.sh 启动所有的Hadoop守护进程. 包括NameNode. Secondary NameNode.DataNode.ResourceManager.NodeManag ...
- hadoop基础----hadoop理论----Hadoop简介
hadoop是什么? (1)Hadoop就是一个分布式计算的解决方案,也就是帮助我们把 一个任务分到很多台计算机来运算. (2)Hadoop是一个开源的框架,可编写和运行分布式应用处理大规模数据,是专 ...
- [Hadoop基础]-- Hadoop namenode的HA搭建
基本架构如下 1\\准备机器h15.h16.h17.h18 将zookeeper文件复制到h15\h16\h17上,并且解压 说明如下:zookeeper-3.4.6/zookeeper-3.4.6/ ...
最新文章
- 使用Python,OpenCV从静态背景中提取移动前景
- Oh My Zsh终端工具
- 《评人工智能如何走向新阶段》后记(深谈人工智能发展前沿)
- 大连网络推广明确做好网站标题优化对网站排名的提升影响
- 解决MySql 数据库 提示:1045 access denied for user 'root'@'localhost' using password yes
- 软件测试之逻辑覆盖测试理论总结(白话文)
- 论文浅尝 | 重新审视语言模型与知识库的关系
- html多级折叠菜单表单,JS实战篇之收缩菜单表单布局
- linux 创建一个垃圾篓防误删及其误删文件恢复
- FTP协议的分析和扩展
- 雪城大学信息安全讲义 六、输入校验
- jvm最大最小内存参数设置
- docker登录密码错误_Docker安装运行Mysql 5.7.31容器并修改数据库密码
- Linux磁盘空间监控告警
- Difference between natural join and inner join
- duilib开发(十):动态添加控件
- 阿里巴巴最新分销模式淘易客分销
- 网速是什么意思?带宽是什么意思?1M网速的下载速度应是多少?[转.baidu]
- 隐马尔科夫模型(HMM)模型训练:Baum-Welch算法
- Linux系统中的超级用户,普通用户,特殊用户(特殊用户)3种类型
热门文章
- 日尺度气象干旱指标:SAPEI
- Linux CFS调度器之负荷权重load_weight--Linux进程的管理与调度(二十五)
- 我收藏夹里的一些常用网站,快来围观
- codeforces A. Rook, Bishop and King 解题报告
- JAV学习笔记基础运算符
- 如何将图片转换成pdf实用方法
- R6025 - pure virtual function call
- 10w+训练标签?成本太高!PaddleNLP情感分析赋能消费“回暖”
- java版坦克大战源码分享
- 智慧工地、智慧工厂、智慧电力、危化品行业等有哪些AI盒子产品及优势呢?其中安全生产有哪些人工智能AI产品的厂家及电话,有没有相应的系统平台呢