1 HDFS概述

1.1 HDFS产出背景及定义

  • 1.1 产出背景

随着数据量越来越大,在一个操作系统管辖的范围内存不下了,那么就分配到更多的操作系统管理的磁盘中,但是不方便管理和维护,迫切需要一种系统来管理多台机器上的文件,这就是分布式文件管理系统HDFS只是分布式文件管理系统中的一种

  • 1.2 HDFS定义

HDFS,它是一个文件系统,用于存储文件,通过目录树来定位文件

其次,它是分布式的,由很多服务器联合起来实现其功能,集群中的服务器有各自的角色。

HDFS的设计适合一次写入,多次读出的场景,且不支持文件的修改。适合用来做数据分析,并不适合用来做网盘应用。

1.2 HDFS优缺点

  • 1.3.1 优点
    (1)高容错性

    • 数据自动保存多个副本。它通过增加副本的形式,提高容错性。
    • 某一个副本丢失以后,它可以自动恢复。
      (2)适合大数据处理
    • 数据规模:能够处理数据规模达到 GB、TB、甚至PB级别的数据。
    • 文件规模:能够处理百万规模以上的文件数量,数量相当之大。
      (3)流式数据访问,它能保证数据的一致性。
      (4)可构建在廉价机器上,通过多副本机制,提高可靠性。
  • 1.3.2 缺点
    (1)不适合低延时数据访问,比如毫秒级的存储数据,是做不到的。
    (2)无法高效的对大量小文件进行存储

    • 存储大量小文件的话,它会占用 NameNode大量的内存来存储文件、目录和块信息。这样是不可取的,因为NameNode的内存总是有限的。
    • 小文件存储的寻道时间会超过读取时间,它违反了HDFS的设计目标。
      (3)并发写入、文件随机修改
    • 一个文件只能有一个写,不允许多个线程同时写。
    • 仅支持数据 append(追加),不支持文件的随机修改。

1.3 HDFS组成架构

  • (1)Client:就是客户端。
    》》文件切分。文件上传 HDFS 的时候,Client 将文件切分成一个一个的Block,然后进行存储。
    》》与NameNode交互,获取文件的位置信息。
    》》与DataNode交互,读取或者写入数据。
    》》Client提供一些命令来管理HDFS,比如启动或者关闭HDFS。
    》》Client可以通过一些命令来访问HDFS。
  • (2)NameNode:就是Master,它是一个主管、管理者。
    》》管理HDFS的名称空间
    》》管理数据块(Block)映射信息
    》》配置副本策略
    》》处理客户端读写请求
  • (3)DataNode:就是Slave,NameNode下达命令,DataNode执行实际的操作。
    》》存储实际的数据块
    》》执行数据块的读/写操作。
  • (4)Secondary NameNode:并非NameNode的热备。当NameNode挂掉的时候,它并不能马上替换NameNode并提供服务。
    》》辅助NameNode,分担其工作量。
    》》定期合并Fsimage和Edits,并推送给NameNode。
    》》在紧急情况下,可辅助恢复NameNode

1.4 HDFS文件块大小(面试重点)

  • (1)HDFS中的文件在物理上是分块存储(block),块的大小可以通过配置参数( dfs.blocksize)来规定,
    默认大小在hadoop2.x版本中是128M,老版本中是64M

  • (2)HDFS的块比磁盘的块大,其目的是为了最小化寻址开销。
    如果块设置得足够大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需的时间
    因而,传输一个由多个块组成的文件的时间取决于磁盘传输速率。

  • (3)如果寻址时间约为10ms,而传输速率为100MB/s,为了使寻址时间仅占传输时间的1%,
    我们要将块大小设置约为100MB。默认的块大小128MB。

  • (4)块的大小10ms*100*100M/s = 100M

2 HDFS的Shell操作(开发重点)

1.基本语法

bin/hadoop fs 具体命令   OR  bin/hdfs dfs 具体命令

两个是完全相同的。
配置环境变量之后可以不写bin/

2.命令大全

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs

显示所有命令

[-appendToFile <localsrc> ... <dst>]
[-cat [-ignoreCrc] <src> ...]
[-checksum <src> ...]
[-chgrp [-R] GROUP PATH...]
[-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
[-chown [-R] [OWNER][:[GROUP]] PATH...]
[-copyFromLocal [-f] [-p] <localsrc> ... <dst>]
[-copyToLocal [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
[-count [-q] <path> ...]
[-cp [-f] [-p] <src> ... <dst>]
[-createSnapshot <snapshotDir> [<snapshotName>]]
[-deleteSnapshot <snapshotDir> <snapshotName>]
[-df [-h] [<path> ...]]
[-du [-s] [-h] <path> ...]
[-expunge]
[-get [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
[-getfacl [-R] <path>]
[-getmerge [-nl] <src> <localdst>]
[-help [cmd ...]]
[-ls [-d] [-h] [-R] [<path> ...]]
[-mkdir [-p] <path> ...]
[-moveFromLocal <localsrc> ... <dst>]
[-moveToLocal <src> <localdst>]
[-mv <src> ... <dst>]
[-put [-f] [-p] <localsrc> ... <dst>]
[-renameSnapshot <snapshotDir> <oldName> <newName>]
[-rm [-f] [-r|-R] [-skipTrash] <src> ...]
[-rmdir [--ignore-fail-on-non-empty] <dir> ...]
[-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]]
[-setrep [-R] [-w] <rep> <path> ...]
[-stat [format] <path> ...]
[-tail [-f] <file>]
[-test -[defsz] <path>]
[-text [-ignoreCrc] <src> ...]
[-touchz <path> ...]
[-usage [cmd ...]]

3.常用命令实操

(0)启动Hadoop集群(方便后续的测试)

[dev1@hadoop102 hadoop-3.1.3]$ start-dfs.sh
[dev1@hadoop103 hadoop-3.1.3]$ start-yarn.sh

(1)-help:输出这个命令参数

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -help rm

(2)-ls: 显示目录信息

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -ls /

(3)-mkdir:在HDFS上创建目录

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -mkdir -p /xuexiao/class1

(4)-moveFromLocal:从本地剪切粘贴到HDFS

[dev1@hadoop102 hadoop-3.1.3]$ touch aa.txt
[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs - moveFromLocal  ./aa.txt  /xuexiao/class1

(5)-appendToFile:追加一个文件到已经存在的文件末尾

[dev1@hadoop102 hadoop-3.1.3]$ touch bb.txt
[dev1@hadoop102 hadoop-3.1.3]$ vim bb.txt

输入

I love bigdata
[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -appendToFile bb.txt /xuexiao/class1/aa.txt

(6)-cat:显示文件内容

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -cat /xuexiao/class1/aa.txt

(7)-chgrp 、-chmod、-chown:Linux文件系统中的用法一样,修改文件所属权限

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs  -chmod  666  /xuexiao/class1/aa.txt
[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs  -chown  dev1:dev1   /xuexiao/class1/aa.txt

(8)-copyFromLocal:从本地文件系统中拷贝文件到HDFS路径去

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -copyFromLocal README.txt /

(9)-copyToLocal:从HDFS拷贝到本地

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -copyToLocal /xuexiao/class1/aa.txt ./

(10)-cp :从HDFS的一个路径拷贝到HDFS的另一个路径

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -cp /xuexiao/class1/aa.txt /aa.txt

(11)-mv:在HDFS目录中移动文件

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -mv /aa.txt /xuexiao/class1/

(12)-get:等同于copyToLocal,就是从HDFS下载文件到本地

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -get /xuexiao/class1/aa.txt ./

(13)-getmerge:合并下载多个文件,比如HDFS的目录 /user/dev1/test下有多个文件:log.1, log.2,log.3,…

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -getmerge /user/dev1/test/* ./dd.txt

(14)-put:等同于copyFromLocal

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -put ./dd.txt /user/dev1/test/

(15)-tail:显示一个文件的末尾

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -tail /xuexiao/class1/aa.txt

(16)-rm:删除文件或文件夹

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -rm /user/dev1/test/cc2.txt

(17)-rmdir:删除空目录

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -mkdir /test
[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -rmdir /test

(18)-du统计文件夹的大小信息

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -du -s -h /user/dev1/test

2.7 K /user/dev1/test

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -du  -h /user/dev1/test

1.3 K /user/dev1/test/README.txt
15 /user/dev1/test/cc.txt
1.4 K /user/dev1/test/dd.txt
(19)-setrep:设置HDFS中文件的副本数量

[dev1@hadoop102 hadoop-3.1.3]$ hadoop fs -setrep 5 /README.txt

这里设置的副本数只是记录在NameNode的元数据中,是否真的会有这么多副本,还得看DataNode的数量。因为目前只有3台设备,最多也就3个副本,只有节点数的增加到至少5台时,副本数才能达到5。
(20)解决web页面中操作没有权限问题

hadoop默认情况下开启了权限检查,且默认使用dir.who作为http访问的静态用户,因此可通过关闭权限检查或者配置http访问的静态用户为dev1,二选一即可.
core-site.xml中修改http访问的静态用户为dev1

<property><name>hadoop.http.staticuser.user</name><value>dev1</value></property>

在hdfs-site.xml中关闭权限检查

<property><name>dfs.permissions.enabled</name><value>false</value>
</property>

3 HDFS客户端操作(开发重点)

3.1 HDFS客户端环境准备

  • 1.找到hadoop-3.1.3.tar.gz解压
    选择Hadoop-3.1.3,拷贝到其他地方(比如E:\hadoop)。

  • 2.配置HADOOP_HOME环境变量

  • 3.配置Path环境变量

  • 4.创建一个Maven工程

  • 5.导入相应的依赖坐标+日志添加

<dependencies><dependency><groupId>junit</groupId><artifactId>junit</artifactId><version>4.12</version></dependency><dependency><groupId>org.apache.logging.log4j</groupId><artifactId>log4j-slf4j-impl</artifactId><version>2.12.0</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-client</artifactId><version>3.1.3</version></dependency>
</dependencies>

在项目的resources目录下,新建一个文件,命名为"log4j2.xml",在文件中填入

<pre style="background-color:#ffffff;color:#080808;font-family:'Consolas';font-size:13.5pt;"><?xml version="1.0" encoding="UTF-8"?>
<Configuration status="WARN"><Appenders><Console name="Console" target="SYSTEM_OUT"><PatternLayout pattern="%d{YYYY-MM-dd HH:mm:ss} [%t] %-5p %c{1}:%L - %msg%n" /></Console><RollingFile name="RollingFile" filename="log/test.log"filepattern="${logPath}/%d{YYYYMMddHHmmss}-fargo.log"><PatternLayout pattern="%d{YYYY-MM-dd HH:mm:ss} [%t] %-5p %c{1}:%L - %msg%n" /><Policies><SizeBasedTriggeringPolicy size="10 MB" /></Policies><DefaultRolloverStrategy max="20" /></RollingFile></Appenders><Loggers><Root level="info"><AppenderRef ref="Console" /><AppenderRef ref="RollingFile" /></Root></Loggers>
</Configuration>
</pre>
  • 6.创建包名:com.dev1.hdfs
  • 7.创建HdfsClient类
public class HdfsClient{    @Testpublic void testHdfsClient() throws IOException, InterruptedException {//1. 创建HDFS客户端对象,传入uri, configuration , userFileSystem fileSystem =FileSystem.get(URI.create("hdfs://hadoop102:8020"), new Configuration(), "dev1");//2. 操作集群// 例如:在集群的/目录下创建 testHDFS目录fileSystem.mkdirs(new Path("/testHDFS"));//3. 关闭资源fileSystem.close();}
}
  • 8.执行程序

3.2 HDFS的API操作

3.2.1 HDFS文件上传(测试参数优先级)

  • 1.编写源代码
@Test
public void testCopyFromLocalFile() throws IOException, InterruptedException, URISyntaxException {// 1 获取文件系统Configuration configuration = new Configuration();// 设置副本数为2个configuration.set("dfs.replication", "2");FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:8020"), configuration, "dev1");// 2 上传文件fs.copyFromLocalFile(new Path("e:/banzhang.txt"), new Path("/banzhang.txt"));// 3 关闭资源fs.close();}
  • 2.在项目的resources中新建hdfs-site.xml文件,并将如下内容拷贝进去,再次测试
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?><configuration><property><name>dfs.replication</name><value>1</value></property>
</configuration>
  • 3.参数优先级

参数优先级排序:(1)客户端代码中设置的值 >(2)ClassPath下的用户自定义配置文件 >(3)然后是服务器的自定义配置(xxx-site.xml) >(4)服务器的默认配置(xxx-default.xml)

3.2.2 HDFS文件下载

@Test
public void testCopyToLocalFile() throws IOException, InterruptedException, URISyntaxException{// 1 获取文件系统Configuration configuration = new Configuration();FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:8020"), configuration, "dev1");// 2 执行下载操作// boolean delSrc 指是否将原文件删除// Path src 指要下载的文件路径// Path dst 指将文件下载到的路径// boolean useRawLocalFileSystem 是否开启文件校验fs.copyToLocalFile(false, new Path("/banzhang.txt"), new Path("e:/banhua.txt"), true);// 3 关闭资源fs.close();
}

3.2.3 HDFS文件夹删除

@Test
public void testDelete() throws IOException, InterruptedException, URISyntaxException{// 1 获取文件系统Configuration configuration = new Configuration();FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:8020"), configuration, "dev1");// 2 执行删除fs.delete(new Path("/0213/"), true);// 3 关闭资源fs.close();
}

3.2.4 HDFS文件名更改/移动

@Test
public void testRename() throws IOException, InterruptedException, URISyntaxException{// 1 获取文件系统Configuration configuration = new Configuration();FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:8020"), configuration, "dev1"); // 2 修改文件名称fs.rename(new Path("/banzhang.txt"), new Path("/banhua.txt"));// 3 关闭资源fs.close();
}

3.2.5 HDFS文件详情查看

查看文件名称、权限、长度、块信息

@Test
public void testListFiles() throws IOException, InterruptedException, URISyntaxException{// 1获取文件系统Configuration configuration = new Configuration();FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:8020"), configuration, "dev1"); // 2 获取文件详情RemoteIterator<LocatedFileStatus> listFiles = fs.listFiles(new Path("/"), true);while(listFiles.hasNext()){LocatedFileStatus status = listFiles.next();// 输出详情// 文件名称System.out.println(status.getPath().getName());// 长度System.out.println(status.getLen());// 权限System.out.println(status.getPermission());// 分组System.out.println(status.getGroup());// 获取存储的块信息BlockLocation[] blockLocations = status.getBlockLocations();for (BlockLocation blockLocation : blockLocations) {// 获取块存储的主机节点String[] hosts = blockLocation.getHosts();for (String host : hosts) {System.out.println(host);}}System.out.println("-----------漂亮的分割线----------");}// 3 关闭资源
fs.close();
}

3.2.6 HDFS文件和文件夹判断

@Test
public void testListStatus() throws IOException, InterruptedException, URISyntaxException{// 1 获取文件配置信息Configuration configuration = new Configuration();FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:8020"), configuration, "dev1");// 2 判断是文件还是文件夹FileStatus[] listStatus = fs.listStatus(new Path("/"));for (FileStatus fileStatus : listStatus) {// 如果是文件if (fileStatus.isFile()) {System.out.println("f:"+fileStatus.getPath().getName());}else {System.out.println("d:"+fileStatus.getPath().getName());}}// 3 关闭资源fs.close();
}

4.1 HDFS写数据流程

4.1.1 剖析文件写入

HDFS写数据流程

  • (1)客户端通过Distributed FileSystem模块向NameNode请求上传文件,NameNode检查目标文件是否已存在,父目录是否存在。
  • (2)NameNode返回是否可以上传。
  • (3)客户端请求第一个 Block上传到哪几个DataNode服务器上。
  • (4)NameNode返回3个DataNode节点,分别为dn1、dn2、dn3。
  • (5)客户端通过FSDataOutputStream模块请求dn1上传数据,dn1收到请求会继续调用dn2,然后dn2调用dn3,将这个通信管道建立完成。
  • (6)dn1、dn2、dn3逐级应答客户端。
  • (7)客户端开始往dn1上传第一个Block(先从磁盘读取数据放到一个本地内存缓存),以Packet为单位,dn1收到一个Packet就会传给dn2,dn2传给dn3;dn1每传一个packet会放入一个应答队列等待应答。
  • (8)当一个Block传输完成之后,客户端再次请求NameNode上传第二个Block的服务器。(重复执行3-7步)。

4.1.2 网络拓扑-节点距离计算

在HDFS写数据的过程中,NameNode会选择距离待上传数据最近距离的DataNode接收数据。那么这个最近距离怎么计算呢?
节点距离:两个节点到达最近的共同祖先的距离总和。

例如,假设有数据中心d1机架r1中的节点n1。该节点可以表示为/d1/r1/n1。利用这种标记,这里给出四种距离描述,如图4-2所示。
大家算一算每两个节点之间的距离

4.1.3 机架感知(副本存储节点选择)

  • 1.机架感知说明
http://hadoop.apache.org/docs/r3.1.3/hadoop-project-dist/hadoop-hdfs/HdfsDesign.html#Data_Replication
For the common case, when the replication factor is three, HDFS’s placement policy is to put one replica on the local machine if the writer is on a datanode, otherwise on a random datanode, another replica on a node in a different (remote) rack, and the last on a different node in the same remote rack.
  • 2.Hadoop3.1.3副本节点选择

4.2 HDFS读数据流程

HDFS的读数据流程

  • (1)客户端通过Distributed FileSystem向NameNode请求下载文件,NameNode通过查询元数据,找到文件块所在的DataNode地址。
  • (2)挑选一台DataNode(就近原则,然后随机)服务器,请求读取数据。
  • (3)DataNode开始传输数据给客户端(从磁盘里面读取数据输入流,以Packet为单位来做校验)。
  • (4)客户端以Packet为单位接收,先在本地缓存,然后写入目标文件。

Hadoop3_05相关推荐

最新文章

  1. mybatis使用find_in_set导致cpu占用过高
  2. 有没有必要开项目周会
  3. html弹出窗口加载别的页面地址,仿layer.open打开新窗口URL,自适应URL页面高度
  4. ITK:通过镜像填充图像
  5. ospf-cost-FR选路实验
  6. Could not load java.net.BindException错误解决
  7. SAP云平台里的日志系统概述
  8. 《ArcGIS Runtime SDK for Android开发笔记》——离在线一体化技术:离线矢量数据下载...
  9. 交比不变性 matlab,高等几何答案
  10. 鸿蒙车载智慧屏评测,华为智慧屏S Pro体验:告诉你鸿蒙OS有多优秀?
  11. MySQL 如何利用一条语句实现类似于if-else条件语句的判断
  12. 在java中获取当前系统时间 插入数据库中的时间值没有时间只有日期的原因...
  13. VMwareESX上的SCOM控制台无法正常运行
  14. windows和linux之间共享文件 samba的使用
  15. android m4a转mp3格式转换,音频提取格式转换app
  16. QTTabBar v1039
  17. html单标签的语法并举例,HTML简介及举例
  18. 插头DP_最小表示法 模板详解
  19. python进程池Pool的apply与apply_async到底怎么用?
  20. 本人博客目录 [实时更新]

热门文章

  1. 用终端来给屏幕下个雪❄️吧!
  2. 家校互动、班级管理系统
  3. 欧盟儿童玩具EN71查收报告欧盟
  4. 12个程序员接单网站
  5. 我们宿舍里那群“禽兽”的极品笑话
  6. 傅里叶-梅林变换实现图像配准
  7. HLOJ434 关灯
  8. matlab 二维凸包面积,PKU——3348——(凸包和计算多边形面积)
  9. 51单片机工程创建和程序下载
  10. 抱歉,今年我劝各位真的别轻易离职!