大家好,我是不温卜火,昵称来源于成语—
不温不火
,本意是希望自己性情温和
。作为一名互联网行业的小白,博主写博客一方面是为了记录自己的学习过程,另一方面是总结自己所犯的错误希望能够帮助到很多和自己一样处于起步阶段的萌新。但由于水平有限,博客中难免会有一些错误出现,有纰漏之处恳请各位大佬不吝赐教!博客主页:https://buwenbuhuo.blog.csdn.net/
此系列主要为我的学弟学妹们所创作,在某些方面可能偏基础。如果读者感觉较为简单,还望见谅!如果文中出现错误,欢迎指正~
本文主要介绍了HDFS简介及HDFS的编程实践,包括HDFS简介、HDFS相关概念、HDFS体系结构、HDFS存储原理、HDFS数据读写过程及HDFS编程实践。
在说什么是分布式文件系统,我们需要先知道什么是文件系统,根据Google查询概念如下:
🔆文件系统是操作系统用于明确存储设备(常见的是磁盘,也有基于NAND Flash的固态硬盘)或分区上的文件的方法和数据结构;即在存储设备上组织文件的方法。 操作系统中负责管理和存储文件信息的软件机构称为文件管理系统,简称文件系统。 文件系统由三部分组成:文件系统的接口,对对象操纵和管理的软件集合,对象及属性。
👉这里仅举例子说明什么是文件系统有助于大家理解,我们知道一台计算机至少有一个操作系统,一个系统就需要对应一个文件系统,来管理组织存储设备的空间。文件系统就是一个软件机构,这个机构用来管理和存取文件,比如用户可以对系统上的文件进行增删查改等操作,如图所示:
🔆分布式文件系统(Distributed File System,DFS)是指文件系统管理的物理存储资源不一定直接连接在本地节点上,而是通过计算机网络与节点(可简单的理解为一台计算机)相连;或是若干不同的逻辑磁盘分区或卷标组合在一起而形成的完整的有层次的文件系统。
🔍1.计算机集群结构
分布式文件系统把文件分布存储到多个计算机节点上,成千上万的计算机节点构成计算机集群。
与之前使用多个处理器和专用高级硬件的并行化处理装置不同的是,目前的分布式文件系统所采用的计算机集群,都是由普通硬件构成的,这就大大降低了硬件上的开销。计算机集群的基本架构如下图所示:
🔍2. 分布式文件系统的结构
分布式文件系统在物理结构上是由计算机集群中的多个节点构成的,这些节点分为两类,一类叫“主节点”(Master Node
)或者也被称为“名称结点”(NameNode
),另一类叫“从节点”(Slave Node
)或者也被称为“数据节点”(DataNode
)
🔍3. 分布式文件系统与一般文件系统的对比
Column 1 | 分布式文件系统 | 一般文件系统 |
---|---|---|
存储数据的方式 | 数据分散的存储在多台服务器上 | 集中存放所有数据,在一台服务器上器上 |
特点 | 分布式网络存储系统采用可扩展的系统结构,利用多台存储服务器分担存储负荷,利用位置服务器定位存储信息,它不但提高了系统的可靠性、可用性和存取效率,还易于扩展。 | 传统的网络存储系统采用集中的存储服务器存放所有数据,存储服务器成为系统性能的瓶颈,也是可靠性和安全性的焦点,不能满足大规模存储应用的需要。 |
🔍1. HDFS产生背景
随着数据量越来越大,在一个操作系统存不下所有的数据,那么就分配到更多的操作系统管理的磁盘中,但是不方便管理和维护,迫切需要一种系统来管理多台机器上的文件
,这就是分布式文件管理系统。HDFS只是分布式文件管理系统中的一种
。
🔍2. HDFS定义
HDFS(Hadoop Distributed File System),它是一个文件系统
,用于存储文件,通过目录树来定位文件;其次,它是分布式的
,由很多服务器联合起来实现其功能,集群中的服务器有各自的角色。
HDFS的使用场景:适合一次写入,多次读出的场景。
一个文件经过创建、写入和关闭之后就不需要改变。
👉在《Hadoop权威指南》第三章3.1节,有HDFS设计的详细介绍。下面我们来看其描述。
以下为描述部分:
HDFS以流式数据访问模式来存储超大文件,运行于商用硬件集群上。让我们仔细看看下面的描述。
根据上述描述中,了解HDFS特殊的设计,我们可以很容易的看出其优点和存在的缺点。
🔍1.可构建在廉价机器上,通过多副本机制,提高可靠性。
🔍2.适合处理大数据
数据规模:能够处理数据规模达到GB、TB、甚至PB级别的数据;
文件规模:能够处理百万规模以上的文件数量,数量相当之大。
🔍3.高容错性 数据自动保存多个副本。它通过增加副本的形式,提高容错性。
某一个副本丢失以后,它可以自动恢复。
🔍4.可实现流数据读写
🔍5.简单的文件模型
🔍6.强大的跨平台兼容性
🔍1.不适合低延时数据访问,比如毫秒级的存储数据,是做不到的。
🔍2.无法高效的对大量小文件进行存储。
存储大量小文件的话,它会占用NameNode大量的内存来存储文件目录和块信息。这样是不可取的,因为NameNode的内存总是有限的;
小文件存储的寻址时间会超过读取时间,它违反了HDFS的设计目标。
🔍3.不支持并发写入、文件随机修改。
一个文件只能有一个写,不允许多个线程同时写;
仅支持数据append(追加),不支持文件的随机修改。
每个磁盘都有默认的数据块大小,这是磁盘进行数据读/写的最小单位。构建于单个磁盘之上的文件系统通过磁盘块来管理该文件系统中的块,该文件系统块的大小可以是磁盘块的整数倍。文件系统块一般为几千字节,而磁盘块一般为512字节。这些信息(文件系统块大小)对于需要读/写文件的文件系统用户来说是透明的。尽管如此,系统仍然提供了一些工具(如f和fsck)来维护文件系统,由它们对文件系统中的块进行操作。
HDFS同样也有块(block)的概念,但是大得多,默认为128MB。与单一磁盘上的文件系统相似,HDFS上的文件也被划分为块大小的多个分块(chunk),作为独立的存储单元。但与面向单一磁盘的文件系统不同的是,HDFS中小于一个块大小的文件不会占据整个块的空间(例如,当一个1MB的文件存储在一个128MB的块中时,文件只使用1MB的磁盘空间,而不是128MB)。如果没有特殊指出,本篇文章中提到的“块”特指HDFS中的块。
🔆至于HDFS中的块为什么这么大,我们可以看《Hadoop权威指南》给出的解释。
✨对分布式文件系统中的块进行抽象会带来很多好处。其最明显的好处如下:
与磁盘文件系统相似,HDFS中fsck指令可以显示块信息。下面先来简单介绍下Hadoop
中的fsck
命令。
在HDFS中,提供了fsck命令,用于检查HDFS上文件和目录的健康状态、获取文件的block块信息和位置信息等。具体命令如下表所示:
项目 | Value |
---|---|
-move | 移动损坏的文件到/lost+found目录下 |
-delete | 删除损坏的文件 |
-openforwrite | 输出检测中的正在被写的文件 |
-list-corruptfileblocks | 输出损坏的块及其所属的文件 |
-files | 输出正在被检测的文件 |
-blocks | 输出block的详细报告 (需要和-files参数一起使用) |
-locations | 输出block的位置信息 (需要和-files参数一起使用) |
-racks | 输出文件块位置所在的机架信息(需要和-files参数一起使用) |
例如,执行以下命令将列出文件系统中input
文件夹中core-site.xml
这个文件由哪些块构成。
hadoop@Master:/opt/moudle/hadoop$ hdfs fsck /user/hadoop/input/core-site.xml -files -block
HDFS的主要组件包括NaneNode
和DataNode
,其主要组件的功能如下图。
🔍1. 名称节点(NameNode)的数据结构
在HDFS
中,名称节点(NameNode
)负责管理分布式文件系统的命名空间(Namespace
),保存了两个核心的数据结构,即FsImage
和EditLog
FsImage
用于维护文件系统树以及文件树中所有的文件和文件夹的元数据EditLog
中记录了所有针对文件的创建、删除、重命名等操作名称节点(NameNode)记录了每个文件中各个块所在的数据节点的位置信息。其结构图如下:
🔍2. FsImage
FsImage
文件包含文件系统中所有目录和文件inode
的序列化形式。每个inode
是一个文件或目录的元数据的内部表示,并包含此类信息:文件的复制等级、修改和访问时间、访问权限、块大小以及组成文件的块。对于目录,则存储修改时间、权限和配额元数据FsImage
文件没有记录每个块存储在哪个数据节点。而是由名称节点把这些映射信息保留在内存中,当数据节点加入HDFS
集群时,数据节点会把自己所包含的块列表告知给名称节点,此后会定期执行这种告知操作,以确保名称节点的块映射是最新的。🔍3. FsImage和Edit解析
Fsimage和Edits概念
NameNode
被格式化之后,将在/opt/module/hadoop/tmp/dfs/name/current
目录中产生如下文件
hadoop@Master:/opt/moudle/hadoop/tmp/dfs/name/current$ ll
总用量 3128
drwxrwxr-x 2 hadoop hadoop 4096 9月 26 20:20 ./
drwxrwxr-x 3 hadoop hadoop 4096 9月 26 20:33 ../
-rw-rw-r-- 1 hadoop hadoop 684 9月 23 23:38 edits_0000000000000000001-0000000000000000009
-rw-rw-r-- 1 hadoop hadoop 1048576 9月 24 00:02 edits_0000000000000000010-0000000000000000244
-rw-rw-r-- 1 hadoop hadoop 42 9月 25 16:19 edits_0000000000000000245-0000000000000000246
-rw-rw-r-- 1 hadoop hadoop 1048576 9月 25 16:19 edits_0000000000000000247-0000000000000000247
-rw-rw-r-- 1 hadoop hadoop 42 9月 26 17:20 edits_0000000000000000248-0000000000000000249
-rw-rw-r-- 1 hadoop hadoop 42 9月 26 18:20 edits_0000000000000000250-0000000000000000251
-rw-rw-r-- 1 hadoop hadoop 42 9月 26 19:20 edits_0000000000000000252-0000000000000000253
-rw-rw-r-- 1 hadoop hadoop 42 9月 26 20:20 edits_0000000000000000254-0000000000000000255
-rw-rw-r-- 1 hadoop hadoop 1048576 9月 26 20:20 edits_inprogress_0000000000000000256
-rw-rw-r-- 1 hadoop hadoop 2994 9月 26 19:20 fsimage_0000000000000000253
-rw-rw-r-- 1 hadoop hadoop 62 9月 26 19:20 fsimage_0000000000000000253.md5
-rw-rw-r-- 1 hadoop hadoop 2994 9月 26 20:20 fsimage_0000000000000000255
-rw-rw-r-- 1 hadoop hadoop 62 9月 26 20:20 fsimage_0000000000000000255.md5
-rw-rw-r-- 1 hadoop hadoop 4 9月 26 20:20 seen_txid
-rw-rw-r-- 1 hadoop hadoop 216 9月 26 16:20 VERSION
①属性layoutVersion是一个负整数,描述HDFS持久性数据结构(也称布局)的版本,但是该版本号与Hadoop发布包的版本号无关。只要布局变更,版本号便会递减(例如,版本号-64之后是-65),此时,HDFS也需要升级。否则,磁盘仍然使用旧版本的布局,新版本的namenode(或datanode)就无法正常工作。 ②属性namespaceID是文件系统命名空间的唯一标识符,是在namenode首次格式化时创建的。clusterID是将HDFS集群作为一个整体赋予的唯一标识符,对于联邦HDFS非常重要,这里一个集群由多个命名空间组成,且每个命名空间由一个namenode管理。blockpoolID是数据块池的唯一标识符,数据块池中包含了由一个namenode管理的命名空间中的所有文件。 ③cTime属性标记了namenode存储系统的创建时间。对于刚刚格式化的存储系统,这个属性值为0;但是在文件系统升级之后,该值会更新到新的时间戳。 ④storageType属性说明该存储目录包含的是namenode的数据结构。
🔆1. oiv查看Fsimage文件
(1)查看oiv
和oev
命令
hadoop@Master:current$ hdfs
......
oev apply the offline edits viewer to an edits file
oiv apply the offline fsimage viewer to an fsimage
oiv_legacy apply the offline fsimage viewer to a legacy fsimage
......
(2)基本语法
hdfs oiv -p 文件类型 -i镜像文件 -o 转换后文件输出路径
(3)实操
hadoop@Master:/opt/moudle/hadoop/tmp/dfs/name/current$ hdfs oiv -p XML -i fsimage_0000000000000000255 -o /opt/moudle/hadoop/fsimage.xml
2021-09-27 11:45:12,357 INFO offlineImageViewer.FSImageHandler: Loading 3 strings
将xml文件内容拷贝到Idea中创建的xml文件中,并格式化。部分显示结果如下。
<inode>
<id>16393</id>
<type>DIRECTORY</type>
<name>hadoop</name>
<mtime>1632412810728</mtime>
<permission>hadoop:supergroup:0755</permission>
<nsquota>-1</nsquota>
<dsquota>-1</dsquota>
</inode>
<inode>
<id>16394</id>
<type>DIRECTORY</type>
<name>input</name>
<mtime>1632412547963</mtime>
<permission>hadoop:supergroup:0755</permission>
<nsquota>-1</nsquota>
<dsquota>-1</dsquota>
</inode>
<inode>
<id>16395</id>
<type>FILE</type>
<name>capacity-scheduler.xml</name>
<replication>3</replication>
<mtime>1632412547687</mtime>
<atime>1632412546882</atime>
<preferredBlockSize>134217728</preferredBlockSize>
<permission>hadoop:supergroup:0644</permission>
<blocks>
<block>
<id>1073741825</id>
<genstamp>1001</genstamp>
<numBytes>8260</numBytes>
</block>
</blocks>
<storagePolicyId>0</storagePolicyId>
</inode>
可以看出,Fsimage
中没有记录块所对应DataNode
。
Fsimage中没有记录块所对应DataNode,为什么?
答:在fsimage中,并没有记录每一个block对应到哪几个datanodes的对应表信息,而只是存储了所有的关于namespace的相关信息。而真正每个block对应到datanodes列表的信息在hadoop中并没有进行持久化存储,而是在所有datanode启动时,每个datanode对本地磁盘进行扫描,将本datanode上保存的block信息汇报给namenode,namenode在接收到每个datanode的块信息汇报后,将接收到的块信息,以及其所在的datanode信息等保存在内存中。(HDFS就是通过这种块信息汇报的方式来完成 block -> datanodes list的对应表构建。Datanode向namenode汇报块信息的过程叫做blockReport,而namenode将block -> datanodes list的对应表信息保存在一个叫BlocksMap的数据结构中。)
🔆2. oev查看Edits文件
(1)基本语法
hdfs oev -p 文件类型 -i编辑日志 -o 转换后文件输出路径
(2)实操
hadoop@Master:current$ hdfs oev -p XML -i edits_0000000000000000254-0000000000000000255 -o /opt/moudle/hadoop/edits.xml
将xml文件内容拷贝到Idea中创建的xml文件中,并格式化。显示结果如下。
<?xml version="1.0" encoding="UTF-8" standalone="yes"?>
<RECORD>
<OPCODE>OP_ADD</OPCODE>
<DATA>
<TXID>50</TXID>
<LENGTH>0</LENGTH>
<INODEID>16401</INODEID>
<PATH>/user/hadoop/input/kms-site.xml._COPYING_</PATH>
<REPLICATION>3</REPLICATION>
<MTIME>1632412547879</MTIME>
<ATIME>1632412547879</ATIME>
<BLOCKSIZE>134217728</BLOCKSIZE>
<CLIENT_NAME>DFSClient_NONMAPREDUCE_-1428981819_1</CLIENT_NAME>
<CLIENT_MACHINE>192.168.2.6</CLIENT_MACHINE>
<OVERWRITE>true</OVERWRITE>
<PERMISSION_STATUS>
<USERNAME>hadoop</USERNAME>
<GROUPNAME>supergroup</GROUPNAME>
<MODE>420</MODE>
</PERMISSION_STATUS>
<ERASURE_CODING_POLICY_ID>0</ERASURE_CODING_POLICY_ID>
<RPC_CLIENTID>18cbe0d2-6989-4815-b17d-56ccd10cdf63</RPC_CLIENTID>
<RPC_CALLID>47</RPC_CALLID>
</DATA>
</RECORD>
<RECORD>
<OPCODE>OP_ALLOCATE_BLOCK_ID</OPCODE>
<DATA>
<TXID>51</TXID>
<BLOCK_ID>1073741831</BLOCK_ID>
</DATA>
</RECORD>
<RECORD>
<OPCODE>OP_SET_GENSTAMP_V2</OPCODE>
<DATA>
<TXID>52</TXID>
<GENSTAMPV2>1007</GENSTAMPV2>
</DATA>
</RECORD>
<RECORD>
<OPCODE>OP_ADD_BLOCK</OPCODE>
<DATA>
<TXID>53</TXID>
<PATH>/user/hadoop/input/kms-site.xml._COPYING_</PATH>
<BLOCK>
<BLOCK_ID>1073741831</BLOCK_ID>
<NUM_BYTES>0</NUM_BYTES>
<GENSTAMP>1007</GENSTAMP>
</BLOCK>
<RPC_CLIENTID/>
<RPC_CALLID>-2</RPC_CALLID>
</DATA>
</RECORD>
<RECORD>
<OPCODE>OP_CLOSE</OPCODE>
<DATA>
<TXID>54</TXID>
<LENGTH>0</LENGTH>
<INODEID>0</INODEID>
<PATH>/user/hadoop/input/kms-site.xml._COPYING_</PATH>
<REPLICATION>3</REPLICATION>
<MTIME>1632412547901</MTIME>
<ATIME>1632412547879</ATIME>
<BLOCKSIZE>134217728</BLOCKSIZE>
<CLIENT_NAME/>
<CLIENT_MACHINE/>
<OVERWRITE>false</OVERWRITE>
<BLOCK>
<BLOCK_ID>1073741831</BLOCK_ID>
<NUM_BYTES>682</NUM_BYTES>
<GENSTAMP>1007</GENSTAMP>
</BLOCK>
<PERMISSION_STATUS>
<USERNAME>hadoop</USERNAME>
<GROUPNAME>supergroup</GROUPNAME>
<MODE>420</MODE>
</PERMISSION_STATUS>
</DATA>
</RECORD>
思考:NameNode如何确定下次开机启动的时候合并哪些Edits?
答: NameNode启动的时候合并的是上次停机前正在写入的Edits
,即edits_inprogress_xxx
根据seen_txid
里面记录最新的Fsimage
(镜像文件)的值去合并Edits
(编辑日志)。
🔍4. 名称节点的启动
FsImage
文件中的内容加载到内存中,之后再执行EditLog
文件中的各项操作,使得内存中的元数据和实际的同步,存在内存中的元数据支持客户端的读操作。FsImage
文件和一个空的EditLog
文件HDFS
中的更新操作会重新写到EditLog
文件中,因为FsImage
文件一般都很大(GB级别的很常见),如果所有的更新操作都往FsImage
文件中添加,这样会导致系统运行的十分缓慢,但是,如果往EditLog
文件里面写就不会这样,因为EditLog
要小很多。每次执行写操作之后,且在向客户端发送成功代码之前,edits
文件都需要同步更新🔍5. 什么是第二名称节点,什么时候使用第二名称节点
第二名称节点是HDFS架构中的一个组成部分,它是用来保存名称节点中对HDFS 元数据信息的备份,并减少名称节点重启的时间。SecondaryNameNode一般是单独运行在一台机器上。
NameNode
运行期间会出现EditLog
不断变大的问题,这个时候就需要使用SecondaryNameNode
。
HDFS
的所有更新操作都是直接写到EditLog
中,久而久之, EditLog
文件将会变得很大FsImage
里面的所有内容映像到内存中,然后再一条一条地执行EditLog
中的记录,当EditLog
文件非常大的时候,会导致名称节点启动操作非常慢,而在这段时间内HDFS
系统处于安全模式,一直无法对外提供写操作,影响了用户的使用。🔍6. NameNode
工作机制
🔆第一阶段:NameNode启动
🔆第二阶段:Secondary NameNode工作
🔍7.CheckPoint时间设置
🔆通常情况下,SecondaryNameNode每隔一小时执行一次。
# hdfs-default.xml
<property>
<name>dfs.namenode.checkpoint.period</name>
<value>3600s</value>
</property>
🔆一分钟检查一次操作次数,当操作次数达到1百万时,SecondaryNameNode执行一次
<property>
<name>dfs.namenode.checkpoint.txns</name>
<value>1000000</value>
<description>操作动作次数</description>
</property>
<property>
<name>dfs.namenode.checkpoint.check.period</name>
<value>60s</value>
<description> 1分钟检查一次操作次数</description>
</property>
🔍1. DataNode的工作机制
🔆(1)一个数据块在DataNode上以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据的校验和,以及时间戳。 🔆(2)DataNode启动后向NameNode注册,通过后,周期性(6小时)的向NameNode上报所有的块信息。
DN向NN汇报当前解读信息的时间间隔,默认6小时
<property>
<name>dfs.blockreport.intervalMsec</name>
<value>21600000</value>
<description>Determines block reporting interval in milliseconds.</description>
</property>
DN扫描自己节点块信息列表的时间,默认6小时
<property>
<name>dfs.datanode.directoryscan.interval</name>
<value>21600s</value>
<description>Interval in seconds for Datanode to scan data directories and reconcile the difference between blocks in memory and on the disk.
Support multiple time unit suffix(case insensitive), as described
in dfs.heartbeat.interval.
</description>
</property>
🔆(3)心跳是每3秒一次,心跳返回结果带有NameNode给该DataNode的命令如复制块数据到另一台机器,或删除某个数据块。如果超过10分钟没有收到某个DataNode的心跳,则认为该节点不可用。 🔆(4)集群运行中可以安全加入和退出一些机器。
🔍2. 数据完整性
如果DataNode节点上的数据损坏了,却没有发现,是否也很危险,该如何解决?如下是DataNode节点保证数据完整性的方法
🔍3. 掉线时限参数设置
需要注意的是hdfs-site.xml 配置文件中的heartbeat.recheck.interval的单位为毫秒,dfs.heartbeat.interval的单位为秒。
<property>
<name>dfs.namenode.heartbeat.recheck-interval</name>
<value>300000</value>
</property>
<property>
<name>dfs.heartbeat.interval</name>
<value>3</value>
</property>
🔍1. HDFS体系结构概述
HDFS采用了主从(Master/Slave)
结构模型,一个HDFS集群包括一个名称节点(NameNode)
和若干个数据节点(DataNode)
。名称节点作为中心服务器,负责管理文件系统的命名空间及客户端对文件的访问。集群中的数据节点一般是一个节点运行一个数据节点进程,负责处理文件系统客户端的读/写请求,在名称节点的统一调度下进行数据块的创建、删除和复制等操作。每个数据节点的数据实际上是保存在本地Linux文件系统中的,如下图所示:
🔆1.NameNode(nn):就是Master,它是一个主管、管理者。
🔆2.DataNode:就是Slave。NameNode下达命令,DataNode执行实际的操作。
🔆3.Client:就是客户端。
🔆4.Secondary NameNode:并非NameNode的热备。当NameNode挂掉的时候,它并不能马上替换NameNode并提供服务。
🔍2. HDFS命名空间管理
🔍3. HDFS的通信协议
🔍4. HDFS客户端(此部分后续会进行讲解)
🔍5. HDFS体系结构的局限性
HDFS只设置唯一一个名称节点,这样做虽然大大简化了系统设计,但也带来了一些明显的局限性,具体如下:
🔍1. 冗余数据保存
作为一个分布式文件系统,为了保证系统的容错性和可用性,HDFS采用了多副本方式对数据进行冗余存储,通常一个数据块的多个副本会被分布到不同的数据节点上,如下图所示,数据块1被分别存放到数据节点A和C上,数据块2被存放在数据节点A和B上。这种多副本方式具有以下几个优点:
🔍2. 数据存取策略
🔆1.数据存放
🔆2.数据读取
🔍3. 数据错误与恢复
HDFS具有较高的容错性,可以兼容廉价的硬件,它把硬件出错看作一种常态,而不是异常,并设计了相应的机制检测数据错误和进行自动恢复,主要包括以下几种情形:名称节点出错、数据节点出错和数据出错。
🔆1.名称节点出错
名称节点保存了所有的元数据信息,其中,最核心的两大数据结构是FsImage和Editlog,如果这两个文件发生损坏,那么整个HDFS实例将失效。因此,HDFS设置了备份机制,把这些核心文件同步复制到备份服务器SecondaryNameNode上。当名称节点出错时,就可以根据备份服务器SecondaryNameNode中的FsImage和Editlog数据进行恢复。
🔆2.数据节点出错
🔆3.数据出错
🔍1. 读写demo
下图为读取文件demo。
下图为写入文件demo。
✨简单介绍案例demo
🔍2. 读数据的过程
🔍3. 写数据的过程
接下来介绍Linux操作系统中关于HDFS文件操作的常用Shell命令,利用Web界面查看和管理Hadoop文件系统,以及利用Hadoop提供的Java API进行基本的文件操作。
Hadoop支持很多Shell命令,其中fs是HDFS最常用的命令,利用fs可以查看HDFS文件系统的目录结构、上传和下载数据、创建文件等。虽然本人习惯使用hdfs dfs
我们可以在终端输入bin/hdfs dfs
,查看dfs总共支持了哪些命令
hadoop@Master:/opt/moudle/hadoop$ hdfs dfs
下面为显示的内容:
Usage: hadoop fs [generic options]
[-appendToFile <localsrc> ... <dst>]
[-cat [-ignoreCrc] <src> ...]
[-checksum <src> ...]
[-chgrp [-R] GROUP PATH...]
[-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
[-chown [-R] [OWNER][:[GROUP]] PATH...]
[-copyFromLocal [-f] [-p] [-l] [-d] [-t <thread count>] <localsrc> ... <dst>]
[-copyToLocal [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
[-count [-q] [-h] [-v] [-t [<storage type>]] [-u] [-x] [-e] <path> ...]
[-cp [-f] [-p | -p[topax]] [-d] <src> ... <dst>]
[-createSnapshot <snapshotDir> [<snapshotName>]]
[-deleteSnapshot <snapshotDir> <snapshotName>]
[-df [-h] [<path> ...]]
[-du [-s] [-h] [-v] [-x] <path> ...]
[-expunge]
[-find <path> ... <expression> ...]
[-get [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
[-getfacl [-R] <path>]
[-getfattr [-R] {-n name | -d} [-e en] <path>]
[-getmerge [-nl] [-skip-empty-file] <src> <localdst>]
[-head <file>]
[-help [cmd ...]]
[-ls [-C] [-d] [-h] [-q] [-R] [-t] [-S] [-r] [-u] [-e] [<path> ...]]
[-mkdir [-p] <path> ...]
[-moveFromLocal <localsrc> ... <dst>]
[-moveToLocal <src> <localdst>]
[-mv <src> ... <dst>]
[-put [-f] [-p] [-l] [-d] <localsrc> ... <dst>]
[-renameSnapshot <snapshotDir> <oldName> <newName>]
[-rm [-f] [-r|-R] [-skipTrash] [-safely] <src> ...]
[-rmdir [--ignore-fail-on-non-empty] <dir> ...]
[-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]]
[-setfattr {-n name [-v value] | -x name} <path>]
[-setrep [-R] [-w] <rep> <path> ...]
[-stat [format] <path> ...]
[-tail [-f] [-s <sleep interval>] <file>]
[-test -[defsz] <path>]
[-text [-ignoreCrc] <src> ...]
[-touch [-a] [-m] [-t TIMESTAMP ] [-c] <path> ...]
[-touchz <path> ...]
[-truncate [-w] <length> <path> ...]
[-usage [cmd ...]]
......
序号 | 命令 | 作用 |
---|---|---|
1 | -help | 输出这个命令参数 |
2 | -ls | 显示目录信息 |
3 | -mkdir | 在HDFS上创建目录 |
4 | -moveFromLocal | 从本地剪切粘贴到HDFS |
5 | -appendToFile | 追加一个文件到已经存在的文件末尾 |
6 | -cat | 显示文件内容 |
7 | -chgrp 、-chmod、-chown | Linux文件系统中的用法一样,修改文件所属权限 |
8 | -copyFromLocal | 从本地文件系统中拷贝文件到HDFS路径去 |
9 | -copyToLocal | 从HDFS拷贝到本地 |
10 | -cp | 从HDFS的一个路径拷贝到HDFS的另一个路径 |
11 | -mv | 在HDFS目录中移动文件 |
12 | -get | 等同于copyToLocal,就是从HDFS下载文件到本地 |
13 | -getmerge | 合并下载多个文件 |
14 | -put | 等同于copyFromLocal |
15 | -tail | 显示一个文件的末尾 |
16 | -rm | 删除文件或文件夹 |
17 | -rmdir | 删除空目录 |
18 | -du | 统计文件夹的大小信息 |
19 | -setrep | 设置HDFS中文件的副本数量 |
20 | - expunge | 清空HDFS垃圾桶 |
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -help rm
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -ls /
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -mkdir -p /sanguo/shuguo
hadoop@Master:/opt/moudle/hadoop$ touch kongming.txt
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -moveFromLocal ./kongming.txt /sanguo/shuguo
hadoop@Master:/opt/moudle/hadoop$ vim liubei.txt
输入
bu wen bu huo
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -appendToFile liubei.txt /sanguo/shuguo/kongming.txt
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -cat /sanguo/shuguo/kongming.txt
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -chmod 666 /sanguo/shuguo/kongming.txt
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -chown bigdata:bigdata /sanguo/shuguo/kongming.txt
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -copyFromLocal README.txt /
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -copyToLocal /sanguo/shuguo/kongming.txt ./
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -cp /sanguo/shuguo/kongming.txt /zhuge.txt
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -mv /zhuge.txt /sanguo/shuguo/
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -get /sanguo/shuguo/kongming.txt ./
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -getmerge /user/bigdata/test/* ./zaiyiqi.txt
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -put ./zaiyiqi.txt /user/bigdata/test/
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -tail /sanguo/shuguo/kongming.txt
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -rm /user/bigdata/test/jinlian2.txt
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -mkdir /test
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -rmdir /test
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -du -s -h /user/bigdata/test
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -du -h /user/bigdata/test
hadoop@Master:/opt/moudle/hadoop$ hadoop fs -setrep 10 /sanguo/shuguo/kongming.txt
这里设置的副本数只是记录在NameNode的元数据中,是否真的会有这么多副本,还得看DataNode的数量。因为目前只有3台设备,最多也就3个副本,只有节点数的增加到10台时,副本数才能达到10。
hadoop@Master:/opt/moudle/hadoop$ hdfs dfs -expunge
🔆打开浏览器,点击此链接HDFS的Web界面,即可看到HDFS的web管理界面。WEB界面的访问地址是http://localhost:9870。
Hadoop不同的文件系统之间通过调用Java API进行交互,上面介绍的Shell命令,本质上就是Java API的应用。下面提供了Hadoop官方的Hadoop API文档,想要深入学习Hadoop,可以访问如下网站,查看各个API的功能。 Hadoop API文档
利用Java API进行交互,需要利用软件Eclipse或者IDEA编写Java程序,下面对其分别讲解。
Eclipse是常用的程序开发工具,我们可以在Linux系统中安装Eclipse。可以到Eclipse官网https://www.eclipse.org/downloads/下载安装包。 或者使用链接:https://pan.baidu.com/s/1rNUb8xOS6pngEke1MwCcIg ,提取码:rmzn 。
🔍1.解压eclipse
hadoop@Master:~$ sudo tar -zxvf /opt/software/eclipse-4.7.0-linux.gtk.x86_64.tar.gz -C /opt/moudle/
🔍2.执行命令启动eclipse
hadoop@Master:~$ cd /opt/moudle/eclipse/
hadoop@Master:/opt/moudle/eclipse$ ll
我们可以看到eclipse
是个可执行文件,这个时候只需要输入./eclipse
即可。
hadoop@Master:/opt/moudle/eclipse$ ./eclipse
Hadoop采用Java语言开发的,提供了Java API与HDFS进行交互。上面介绍的Shell命令,在执行时实际上会被系统转换成Java API调用。Hadoop官方网站提供了完整的Hadoop API文档(http://hadoop.apache.org/docs/stable/api/),想要深入学习Hadoop编程,可以访问Hadoop官网查看各个API的功能和用法。本篇文章只介绍基础的HDFS编程。
现在要执行的任务是:假设在目录“hdfs://master:9000/user/hadoop
”下面有几个文件,分别是file1.txt、file2.txt、file3.txt、file4.abc和file5.abc,这里需要从该目录中过滤出所有后缀名不为“.abc”的文件,对过滤之后的文件进行读取,并将这些文件的内容合并到文件“hdfs://master:9000/user/hadoop/merge.txt
”中。
🔍1. 在Eclipse中创建项目
启动Eclipse。当Eclipse启动以后,会弹出如下图所示界面,提示设置工作空间(workspace)。
可以直接采用默认的设置“/home/hadoop/workspace”,点击“OK”按钮。可以看出,由于当前是采用hadoop用户登录了Linux系统,因此,默认的工作空间目录位于hadoop用户目录“/home/hadoop”下。
Eclipse启动以后,会呈现如下图所示的界面。
选择“File–>New–>Java Project”菜单,开始创建一个Java工程,会弹出如下图所示界面。
在“Project name”后面输入工程名称“HDFSExample”,选中“Use default location”,让这个Java工程的所有文件都保存到“/home/hadoop/workspace/HDFSExample”目录下。在“JRE”这个选项卡中,可以选择当前的Linux系统中已经安装好的JDK,比如jdk1.8。然后,点击界面底部的“Next>”按钮,进入下一步的设置。
🔍1. 为项目添加需要用到的JAR包
进入下一步的设置以后,会弹出如下图所示界面。
需要在这个界面中加载该Java工程所需要用到的JAR包,这些JAR包中包含了可以访问HDFS的Java API。这些JAR包都位于Linux系统的Hadoop安装目录下,对于本教程而言,就是在“/opt/moudle/hadoop/share/hadoop”目录下。点击界面中的“Libraries”选项卡,然后,点击界面右侧的“Add External JARs…”按钮,会弹出如下图所示界面。
在该界面中,上面的一排目录按钮(即“opt”、“moudle”、“hadoop”、“share”、“hadoop”和“common”),当点击某个目录按钮时,就会在下面列出该目录的内容。
为了编写一个能够与HDFS交互的Java应用程序,一般需要向Java工程中添加以下JAR包:
比如,如果要把“/opt/moudle/hadoop/share/hadoop/common”目录下的hadoop-common-3.1.3.jar、hadoop-common-3.1.3-tests.jar、haoop-nfs-3.1.3.jar和haoop-kms-3.1.3.jar添加到当前的Java工程中,可以在界面中点击目录按钮,进入到common目录,然后,界面会显示出common目录下的所有内容(如下图所示)。
请在界面中用鼠标点击选中hadoop-common-3.1.3.jar、hadoop-common-3.1.3-tests.jar、haoop-nfs-3.1.3.jar和haoop-kms-3.1.3.jar(不要选中目录jdiff、lib、sources和webapps),然后点击界面右下角的“确定”按钮,就可以把这两个JAR包增加到当前Java工程中,出现的界面如下图所示。
从这个界面中可以看出,hadoop-common-3.1.3.jar、hadoop-common-3.1.3-tests.jar、haoop-nfs-3.1.3.jar和haoop-kms-3.1.3.jar已经被添加到当前Java工程中。然后,按照类似的操作方法,可以再次点击“Add External JARs…”按钮,把剩余的其他JAR包都添加进来。需要注意的是,当需要选中某个目录下的所有JAR包时,可以使用“Ctrl+A”组合键进行全选操作。全部添加完毕以后,就可以点击界面右下角的“Finish”按钮,完成Java工程HDFSExample的创建。
🔍3. 编写Java应用程序
下面编写一个Java应用程序。
请在Eclipse工作界面左侧的“Package Explorer”面板中(如下图所示),找到刚才创建好的工程名称“HDFSExample”,然后在该工程名称上点击鼠标右键,在弹出的菜单中选择“New–>Class”菜单。
在该界面中,只需要在“Name”后面输入新建的Java类文件的名称,这里采用名称“MergeFile1”,其他都可以采用默认设置,然后,点击界面右下角“Finish”按钮,出现如下图所示界面。
可以看出,Eclipse自动创建了一个名为“MergeFile1.java”的源代码文件,请在该文件中输入以下代码:
🔍4. 编译运行程序
在开始编译运行程序之前,请一定确保Hadoop已经启动运行,如果还没有启动,需要打开一个Linux终端,输入以下命令启动Hadoop:
然后,要确保HDFS的“/user/hadoop”目录下已经存在file1.txt、file2.txt、file3.txt、file4.abc和file5.abc,每个文件里面有内容。这里,假设文件内容如下:
file1.txt的内容是: this is file1.txt
file2.txt的内容是: this is file2.txt
file3.txt的内容是: this is file3.txt
file4.abc的内容是: this is file4.abc
file5.abc的内容是: this is file5.abc
现在就可以编译运行上面编写的代码。可以直接点击Eclipse工作界面上部的运行程序的快捷按钮,当把鼠标移动到该按钮上时,在弹出的菜单中选择“Run As”,继续在弹出来的菜单中选择“Java Application”,如下图所示。
然后,会弹出如下图所示界面。
在该界面中,点击界面右下角的“OK”按钮,开始运行程序。程序运行结束后,会在底部的“Console”面板中显示运行结果信息(如下图所示)。同时,“Console”面板中可能还会显示一些类似“log4j:WARN…”的警告信息,可以不用理会。
如果程序运行成功,这时,可以到HDFS中查看生成的merge.txt文件,比如,可以在Linux终端中执行如下命令:
hadoop@Master:/opt/moudle/hadoop$ hdfs dfs -ls /user/hadoop
Found 5 items
-rw-r--r-- 3 hadoop supergroup 5889 2021-09-27 13:04 /user/hadoop/MapReduceDemo.jar
drwxr-xr-x - hadoop supergroup 0 2021-09-27 14:54 /user/hadoop/input
drwxr-xr-x - hadoop supergroup 0 2021-09-27 13:07 /user/hadoop/input1
-rw-r--r-- 3 hadoop supergroup 54 2021-09-27 14:58 /user/hadoop/merge.txt
drwxr-xr-x - hadoop supergroup 0 2021-09-27 13:10 /user/hadoop/output
hadoop@Master:/opt/moudle/hadoop$ hdfs dfs -cat /user/hadoop/merge.txt
2021-09-27 15:01:04,105 INFO sasl.SaslDataTransferClient: SASL encryption trust check: localHostTrusted = false, remoteHostTrusted = false
this is file1.txt
this is file2.txt
this is file3.txt
🔍5. 应用程序的部署 下面介绍如何把Java应用程序生成JAR包,部署到Hadoop平台上运行。首先,在Hadoop安装目录下新建一个名称为myapp的目录,用来存放我们自己编写的Hadoop应用程序,可以在Linux的终端中执行如下命令:
hadoop@Master:~$ cd /opt/moudle/hadoop/
hadoop@Master:/opt/moudle/hadoop$ mkdir myapp
然后,请在Eclipse工作界面左侧的“Package Explorer”面板中,在工程名称“HDFSExample”上点击鼠标右键,在弹出的菜单中选择“Export”,如下图所示。
然后,会弹出如下图所示界面。
在该界面中,选择“Runnable JAR file”,然后,点击“Next>”按钮,弹出如下图所示界面。
在该界面中,“Launch configuration”用于设置生成的JAR包被部署启动时运行的主类,需要在下拉列表中选择刚才配置的类“MergeFile-HDFSExample”。在“Export destination”中需要设置JAR包要输出保存到哪个目录,比如,这里设置为“/opt/moudle/hadoop/myapp/HDFSExample.jar”。在“Library handling”下面选择“Extract required libraries into generated JAR”。然后,点击“Finish”按钮,会出现如下图所示界面。
可以忽略该界面的信息,直接点击界面右下角的“OK”按钮,启动打包过程。打包过程结束后,会出现一个警告信息界面,如下图所示。
可以忽略该界面的信息,直接点击界面右下角的“OK”按钮。至此,已经顺利把HDFSExample工程打包生成了HDFSExample.jar。可以到Linux系统中查看一下生成的HDFSExample.jar文件,可以在Linux的终端中执行如下命令:
可以看到,“/opt/moudle/hadoop/myapp”目录下已经存在一个HDFSExample.jar文件。 由于之前已经运行过一次程序,已经生成了merge.txt,因此,需要首先执行如下命令删除该文件:
hadoop@Master:/opt/moudle/hadoop/myapp$ hdfs dfs -rm -r /user/hadoop/merge.txt
现在,就可以在Linux系统中,使用hadoop jar命令运行程序,命令如下:
hadoop@Master:/opt/moudle/hadoop/myapp$ hadoop jar HDFSExample.jar
上面程序执行结束以后,可以到HDFS中查看生成的merge.txt文件,比如,可以在Linux终端中执行如下命令:
hadoop@Master:/opt/moudle/hadoop$ hdfs dfs -cat merge.txt
🔍6. 几个测试demo
🔆1.写入文件
🔆2.判断文件是否存在
🔆3.读取文件
🔍1. 在IDEA中创建一个Maven工程HdfsClientDemo,并导入相应的依赖坐标
Maven工程中关于Hadoop的配置项有hadoop-common、hadoop-client、hadoop-hdfs三项,具体配置可以在https://www.mvnrepository.com/中进行查询。
🔆 下面在pom中添加依赖
// 需要添加的依赖
<dependencies>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>3.1.3</version>
</dependency>
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>4.12</version>
</dependency>
<dependency>
<groupId>org.slf4j</groupId>
<artifactId>slf4j-log4j12</artifactId>
<version>1.7.30</version>
</dependency>
</dependencies>
因为是第一次使用,所以编辑好之后需要下载依赖,如下:
选择IDEA右下角Import Changes即可下载依赖,或者点击同步Maven依赖,下载可能需要较长的时间,需要等待下载并解决相关依赖;
同时,为了后面统计和验证代码方便,还需要引如junit测试和log4j控制日志打印输出级别。
🔍2.日志添加
在项目的src/main/resources目录下,新建一个文件,命名为“log4j.properties”,在文件中填入
log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
可以根据日志的输出情况修改log4j.rootLogger的值。
🔍3.创建包名:com.buwenbuhuo.hdfs
🔍4.创建HdfsClient类
🔍5.执行程序
提示:客户端去操作HDFS时,是有一个用户身份的。默认情况下,HDFS客户端API会从采用Windows默认用户访问HDFS,会报权限异常错误。所以在访问HDFS时,一定要配置用户。
🔍1. HDFS文件上传
🔆源码如下:
🔆运行结果如下:
🔍2.HDFS文件下载
🔆源码如下:
🔆运行结果如下:
注意:如果执行上面代码,下载不了文件,有可能是你电脑的微软支持的运行库少,需要安装一下微软运行库。
🔍3.HDFS文件更名和移动
🔆源码如下:
🔆运行结果如下:
🔍4.HDFS删除文件和目录
🔆源码如下:
🔆运行结果如下:
🔍5.HDFS文件详情查看
🔆源码如下:
🔆运行结果如下:
🔍6.HDFS文件和文件夹判断
🔆源码如下:
🔆运行结果如下:
本篇文章到这里就结束了,如有不足请指出~