更多内容关注微信公众号:fullstack888

1 概述

1.1 简介

  • Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS

  • 源自于Google的GFS论文,发表于2003年,HDFS是GFS的克隆版

大数据中最宝贵、最难以代替的就是数据,一切都围绕数据。

HDFS是最早的大数据存储系统,存储着宝贵的数据资产,各种新算法、框架要想得到广泛使用,必须支持HDFS,才能获取已存储在里面的数据。所以大数据技术越发展,新技术越多,HDFS得到的支持越多,越离不开HDFS。HDFS也许不是最好的大数据存储技术,但依然是最重要的大数据存储技术

HDFS是如何实现大数据高速、可靠的存储和访问的呢?

Hadoop分布式文件系统HDFS的设计目标是管理数以千计的服务器、数以万计的磁盘,将大规模的服务器计算资源当作一个单一存储系统进行管理,对应用程序提供数以PB计的存储容量,让应用程序像使用普通文件系统一样存储大规模的文件数据。

1.2 设计目标

文件以多副本的方式进行存储:

filel:node1 node2 node3
file2: node2 node3 node4
file3: node3 node4 node5
file4: node5 node6 node7

缺点:

  • 不管文件多大,都存储在一个节点,在进行数据处理时,很难进行并行处理,节点可能就成为网络瓶颈,很难进行大数据的处理

  • 存储负载很难均衡,每个节点的利用率很低

优点:

  • 巨大的分布式文件系统

  • 运行在普通廉价的硬件

  • 易扩展、为用户提供性能不错的文件存储服务

2 如何设计一个分布式文件系统

HDFS的大容量存储和高速访问的实现。

RAID将数据分片后,在多块磁盘上并发进行读写访问,提高了存储容量、加快了访问速度,并通过数据冗余校验提高了数据可靠性,即使某块磁盘损坏也不会丢数据。将RAID的设计理念扩大到整个分布式服务器集群,就产生了分布式文件系统,这便是Hadoop分布式文件系统的核心原理。

和RAID在多个磁盘上进行文件存储及并行读写的思路一样,HDFS是在一个大规模分布式服务器集群上,对数据分片后进行并行读写及冗余存储。因为HDFS可部署在一个大的服务器集群,集群中所有服务器的磁盘都可供HDFS使用,所以整个HDFS的存储空间可以达到PB级。

HDFS是主从架构。一个HDFS集群会有一个NameNode(命名节点,简称NN),作为主服务器(master server)。

  • NameNode用于管理文件系统的命名空间以及调节客户访问文件

  • 还有多个DataNode(简称DN),数据节点,作为从节点(slave server)存在

  • 通常每个集群中的DataNode,都会被NameNode所管理,DataNode用于存储数据

HDFS公开了文件系统名称空间,允许用户将数据存储在文件中,就好比我们平时使用os中的文件系统一样,用户无需关心底层是如何存储数据的。在底层,一个文件会被分成一或多个数据块,这些数据库块会被存储在一组数据节点中。在CDH中数据块的默认128M。在NameNode,可执行文件系统的命名空间操作,如打开,关闭,重命名文件等。这也决定了数据块到数据节点的映射。

HDFS被设计为可运行在普通的廉价机器上,而这些机器通常运行着一个Linux操作系统。一个典型的HDFS集群部署会有一个专门的机器只能运行NameNode,而其他集群中的机器各自运行一个DataNode实例。虽然一台机器上也可以运行多个节点,但不推荐。

DataNode

  • 存储用户的文件对应的数据块(Block)

  • 会定期向NN发送心跳信息,汇报本身及其所有的block信息和健康状况

负责文件数据的存储和读写操作,HDFS将文件数据分割成若干数据块(Block),每个DataNode存储一部分Block,这样文件就分布存储在整个HDFS服务器集群中。

应用程序客户端(Client)可并行访问这些Block,从而使得HDFS可以在服务器集群规模上实现数据并行访问,极大提高访问速度。

HDFS集群的DataNode服务器会有很多台,一般在几百台到几千台,每台服务器配有数块磁盘,整个集群的存储容量大概在几PB~数百PB。

NameNode

  • 负责客户端请求的响应

  • 负责元数据(文件的名称、副本系数、Block存放的DN)的管理

负责整个分布式文件系统的元数据(MetaData)管理,即文件路径名、数据块的ID以及存储位置等信息,类似os中的文件分配表(FAT)。

HDFS为保证数据高可用,会将一个Block复制为多份(默认3份),并将多份相同的Block存储在不同服务器,甚至不同机架。当有磁盘损坏或某个DataNode服务器宕机,甚至某个交换机宕机,导致其存储的数据块不能访问时,客户端会查找其备份Block访问。

3 S副本机制

HDFS中,一个文件会被拆分为一个或多个数据块。默认每个数据块有三个副本,每个副本都存放在不同机器,而且每一个副本都有自己唯一的编号:

Block多份复制存储的示意图

文件/users/sameerp/data/part-0的复制备份数设为2,存储的BlockID分别为1、3:

  • Block1的两个备份存储在DataNode0和DataNode2两个服务器上

  • Block3的两个备份存储DataNode4和DataNode6两个服务器上

上述任一台服务器宕机后,每个数据块都至少还有一个备份存在,不会影响对文件/users/sameerp/data/part-0的访问。

和RAID一样,数据分成若干Block后,存储到不同服务器,实现数据大容量存储,并且不同分片的数据能并行进行读/写操作,实现数据的高速访问。

副本存放策略

副本存放:NameNode节点选择一个DataNode节点去存储block副本的过程,该过程的策略是在可靠性和读写带宽间权衡。

《Hadoop权威指南》中的默认方式:

  • 第一个副本会随机选择,但是不会选择存储过满的节点

  • 第二个副本放在和第一个副本不同且随机选择的机架

  • 第三个和第二个放在同一机架上的不同节点

  • 剩余副本完全随机节点

合理性分析

  • 可靠性:block存储在两个机架

  • 写带宽:写操作仅穿过一个网络交换机

  • 读操作:选择其中一个机架去读

  • block分布在整个集群

Google大数据“三驾马车”的第一驾是GFS(Google 文件系统),而Hadoop的第一个产品是HDFS,分布式文件存储是分布式计算的基础。

这些年来,各种计算框架、各种算法、各种应用场景不断推陈出新,但大数据存储的王者依然是HDFS。

5 HDFS的高可用设计

5.1 数据存储故障容错

磁盘介质在存储过程中受环境或者老化影响,其存储的数据可能会出现错乱。

HDFS对存储在DataNode上的数据块,计算并存储校验和(CheckSum)。在读数据时,重新计算读取出来的数据的校验和,校验不正确就抛异常,应用程序捕获异常后就到其他DataNode上读取备份数据。

5.2 磁盘故障容错

DataNode监测到本机的某块磁盘损坏,就将该块磁盘上存储的所有BlockID报告给NameNode,NameNode检查这些数据块还在哪些DataNode上有备份,通知相应的DataNode服务器将对应的数据块复制到其他服务器上,以保证数据块的备份数满足要求。

5.3 DataNode故障容错

DataNode会通过心跳和NameNode保持通信,如果DataNode超时未发送心跳,NameNode就会认为这个DataNode已经宕机失效,立即查找这个DataNode上存储的数据块有哪些,以及这些数据块还存储在哪些服务器上,随后通知这些服务器再复制一份数据块到其他服务器上,保证HDFS存储的数据块备份数符合用户设置的数目,即使再出现服务器宕机,也不会丢失数据。

5.4 NameNode故障容错

NameNode是整个HDFS的核心,记录着HDFS文件分配表信息,所有的文件路径和数据块存储信息都保存在NameNode,如果NameNode故障,整个HDFS系统集群都无法使用;如果NameNode上记录的数据丢失,整个集群所有DataNode存储的数据也就没用了。

所以,NameNode高可用容错能力非常重要。NameNode采用主从热备的方式提供高可用服务:

集群部署两台NameNode服务器:

  • 一台作为主服务器提供服务

  • 一台作为从服务器进行热备

两台服务器通过Zk选举,主要是通过争夺znode锁资源,决定谁是主服务器。而DataNode则会向两个NameNode同时发送心跳数据,但是只有主NameNode才能向DataNode返回控制信息。

正常运行期,主从NameNode之间通过一个共享存储系统shared edits来同步文件系统的元数据信息。当主NameNode服务器宕机,从NameNode会通过ZooKeeper升级成为主服务器,并保证HDFS集群的元数据信息,也就是文件分配表信息完整一致。

软件系统,性能差点,用户也许可接受;使用体验差,也许也能忍受。但若可用性差,经常出故障不可用,就麻烦了;如果出现重要数据丢失,那开发摊上大事。

而分布式系统可能出故障地方又非常多,内存、CPU、主板、磁盘会损坏,服务器会宕机,网络会中断,机房会停电,所有这些都可能会引起软件系统的不可用,甚至数据永久丢失。

所以在设计分布式系统的时候,软件工程师一定要绷紧可用性这根弦,思考在各种可能的故障情况下,如何保证整个软件系统依然是可用的。

6 保证系统可用性的策略

冗余备份

任何程序、任何数据,都至少要有一个备份,也就是说程序至少要部署到两台服务器,数据至少要备份到另一台服务器上。此外,稍有规模的互联网企业都会建设多个数据中心,数据中心之间互相进行备份,用户请求可能会被分发到任何一个数据中心,即所谓的异地多活,在遭遇地域性的重大故障和自然灾害的时候,依然保证应用的高可用。

失效转移

当要访问的程序或者数据无法访问时,需要将访问请求转移到备份的程序或者数据所在的服务器上,这也就是失效转移。失效转移你应该注意的是失效的鉴定,像NameNode这样主从服务器管理同一份数据的场景,如果从服务器错误地以为主服务器宕机而接管集群管理,会出现主从服务器一起对DataNode发送指令,进而导致集群混乱,也就是所谓的“脑裂”。这也是这类场景选举主服务器时,引入ZooKeeper的原因。ZooKeeper的工作原理,我将会在后面专门分析。

降级

当大量的用户请求或者数据处理请求到达的时候,由于计算资源有限,可能无法处理如此大量的请求,进而导致资源耗尽,系统崩溃。这种情况下,可以拒绝部分请求,即进行限流;也可以关闭部分功能,降低资源消耗,即进行降级。限流是互联网应用的常备功能,因为超出负载能力的访问流量在何时会突然到来,你根本无法预料,所以必须提前做好准备,当遇到突发高峰流量时,就可以立即启动限流。而降级通常是为可预知的场景准备的,比如电商的“双十一”促销,为了保障促销活动期间应用的核心功能能够正常运行,比如下单功能,可以对系统进行降级处理,关闭部分非重要功能,比如商品评价功能。

总结

HDFS是如何通过大规模分布式服务器集群实现数据的大容量、高速、可靠存储、访问的。

1.文件数据以数据块的方式进行切分,数据块可以存储在集群任意DataNode服务器上,所以HDFS存储的文件可以非常大,一个文件理论上可以占据整个HDFS服务器集群上的所有磁盘,实现了大容量存储。

2.HDFS一般的访问模式是通过MapReduce程序在计算时读取,MapReduce对输入数据进行分片读取,通常一个分片就是一个数据块,每个数据块分配一个计算进程,这样就可以同时启动很多进程对一个HDFS文件的多个数据块进行并发访问,从而实现数据的高速访问。关于MapReduce的具体处理过程,我们会在专栏后面详细讨论。

3.DataNode存储的数据块会进行复制,使每个数据块在集群里有多个备份,保证了数据的可靠性,并通过一系列的故障容错手段实现HDFS系统中主要组件的高可用,进而保证数据和整个系统的高可用。

- END -

往期回顾

◆DDD领域驱动设计实战-服务和数据在微服务各层协作的最佳实践

◆Hbase、Kudu和ClickHouse对比

◆并发请求如何优雅地处理重复请求

◆商品库存的扣除过程,如何防止超卖?

◆彻底弄懂HTTP缓存机制及原理

技术交流,请加微信: jiagou6688 ,备注:Java,拉你进架构群

HDFS 为何在大数据领域经久不衰?相关推荐

  1. 开源的Blink和Spark3.0,谁将称霸大数据领域?

    来源 | 大数据技术与架构(import_bigdata) 作者 | 王知无,阿里巴巴高级大数据开发工程师,先后在京东.阿里等大型互联网公司从事大数据平台.实时计算和离线计算中间件和业务平台开发. 2 ...

  2. 大数据领域75个核心术语讲解!

    ↑↑↑关注后"星标"Datawhale 每日干货 & 每月组队学习,不错过 Datawhale干货 选自:DataConomy,来源:机器之心 近日,Ramesh Dont ...

  3. 2020大数据领域十大必读书籍

    相信身边有很多应届毕业生以及想转行大数据的,状态大多都是:万脸懵逼. 老司机教你:看书.写代码.多交流. 2020你看了几本书呢?小编为大家精心挑选了大数据领域里十本有价值的书,先干掉这几本书,再和老 ...

  4. 2019大数据领域十大必读书籍

    相信身边有很多应届毕业生以及想转行大数据的,状态大多都是:万脸懵逼. 老司机教你:看书.写代码.多交流. 2019你看了几本书呢?小编为大家精心挑选了大数据领域里十本有价值的书,先干掉这几本书,再和老 ...

  5. 大数据领域十大必读书籍

    2017大数据领域十大必读书籍 chenjj 2017-07-12 大数据, 热门新闻 2,759 views 0 历史大浪淘沙经过5次信息革命,终于迎来大数据时代,给信息领域灌入了强劲的血液,催生了 ...

  6. 2017大数据领域十大必读书籍

    历史大浪淘沙经过5次信息革命,终于迎来大数据时代,给信息领域灌入了强劲的血液,催生了很多新生力量,而各行各业谁也无法离开数据存活.尤其近几年来,全球范围内掀起了一股"大数据"热,各 ...

  7. 代达罗斯之殇-大数据领域小文件问题解决攻略

    : 点击上方蓝色字体,选择"设为星标" 回复"资源"获取更多惊喜 大数据技术与架构 点击右侧关注,大数据开发领域最强公众号! 大数据真好玩 点击右侧关注,大数据 ...

  8. 大数据领域三个大的技术方向资料

    大数据领域三个大的技术方向: 1.Hadoop大数据开发方向 2.数据挖掘.数据分析&机器学习方向 3.大数据运维&云计算方向 大数据学习什么 Python:Python 的排名从去年 ...

  9. 深度学习仍是视觉大数据领域的最好分析方法之一

    随着移动互联网和物联网的快速普及,全球数据总量呈指数级增长.据雷锋网统计,我们每天创造约2.3万亿GB数据. 过去,人们对海量数据无从下手.随着大数据与人工智能.云计算.物联网.区块链等前沿技术的紧密 ...

  10. 怎么才能转入大数据领域 ,成为一名合格的大数据分析师...

    2019年的高考很快就要拉开序幕了.而考生和家长除了要面临考试这一难关外,考试之后填报志愿时,选择大学和专业也是一个难题. 最近两年很多高校都开设了互联网相关专业,大数据.机器人等专业成为热点.在20 ...

最新文章

  1. 5大步骤+10个案例,堪称SQL优化万能公式
  2. Id选择器和Class选择器
  3. cop2000计算机组成原理,COP2000计算机组成原理-南昌大学网络教学平台.doc
  4. 2008-2013年写的10个小软件
  5. 【SSL】java keytool工具创建自己的(localhost)(JKS)证书库
  6. leetcode-551-Student Attendance Record I(判断是否出现连续几个相同字符)
  7. 更新版 | GPU CUDA 进阶课程
  8. 【英语学习】【Daily English】U10 Education L03 She's planning to study abroad
  9. Django视图层:视图函数、视图类
  10. shell入门(二)——面试题实例
  11. Hyperledger Fabric教程(12)-- 交易过程
  12. 雾霾图像matlab,MATLAB图像处理:一分钟去除图片中的雾霾
  13. Spring揭秘 — IoC
  14. python123 测验6:组合数据类型
  15. Go开源说第十七期 分布式事务DTM
  16. Unity 集成admob 出错AAPT: error :unexpected element <queries> found in <manifest>
  17. js prototype原形
  18. 传奇高手的一天(笑话)
  19. html css纵向滑动列表,css3页面鼠标纵向滑动效果
  20. Sony微单相机alpha6000 wifi远程控制(1)

热门文章

  1. 选修课报名抢座小程序 毕业设计毕业论文 开题报告和效果图(基于微信小程序毕业设计题目选题课题)
  2. 怎样快速搭建个人网站?
  3. se2CLAM代码阅读总结
  4. 使用 C# 开发智能手机软件:推箱子(十三)
  5. 超图软件上市 ——股票代码300036
  6. AVAudioRecord录音
  7. 如何用python实现猜单词小游戏
  8. 微信小程序中设置background背景图片不显示的问题
  9. 中英双语言云挖矿授权质押理财生息源码完整版
  10. linux查看服务器是否开启防火墙,linux查看防火墙是否关闭的实例方法