首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

【大数据】Hive 小文件治理和 HDFS 数据平衡讲解

一、Hive 小文件概述

在Hive中,所谓的小文件是指文件大小远小于HDFS块大小的文件,通常小于128 MB,甚至更少。这些小文件可能是Hive表的一部分,每个小文件都包含一个或几个表的记录,它们以文本格式存储。

Hive通常用于分析大量数据,但它在处理小文件方面表现不佳,Hive中存在大量小文件会引起以下问题:

存储空间占用过多:在Hadoop生态系统中,每个小文件都将占用一定的存储空间,而且每个小文件也需要一个块来存储。如果存在大量的小文件,将浪费大量的存储空间。

处理延迟:小文件数量过多,会引起大量IO操作,导致处理延迟。

查询性能下降:小文件用于分区和表划分,可能导致查询延迟并降低查询性能。此外,小文件还会增加元数据的数量,使得Hive在查询元数据时变得更加缓慢。

数据倾斜:如果数据分布不均匀,会导致一些Reduce任务处理了完全不同的分区,这会使某些Reduce任务的运行速度与其他Reduce任务相比非常慢。

因此,为了避免这些问题,我们需要对Hive中小文件的处理进行优化,减少小文件数量和大小,以提高数据处理效率和准确性。

二、Hive 小文件产生的背景

Hive中小文件产生的背景主要是因为以下两个原因:

数据写入频率较高:如果表的写入频率较高,也就意味着会频繁地添加、更新或删除记录,这可能会导致小文件的产生。由于Hive表被映射到HDFS文件,因此如果频繁地写入数据,它们可能以小文件的形式存在。

映射表的切分限制:Hive表映射为HDFS文件时会按照数据块大小进行切分和管理。如果表中存在小于单个数据块大小的数据,生成的文件就会比数据块小。这可能会导致大量小文件的产生,

综上所述,Hive中小文件的存在与数据写入频率高和表映射为HDFS文件的切分方式有关。为了处理小文件问题,我们需要了解这些背景并针对其原因来优化处理。

三、环境准备

四、Hive 小文件治理

为了处理Hive中的小文件问题,可以采取以下一些有效措施:

文件合并:将多个小文件合并成一个大文件,采用 Hadoop 文件合并API可以将多个小文件合并成一个大文件。合并文件后,可以减少小文件数量,减少Hadoop文件管理负担,减少HDFS元数据和NameNode内存消耗。

压缩文件:可以使用压缩算法(如gzip、bzip2等)对小文件进行压缩,这样可以减少磁盘空间和网络带宽的使用,并减少小文件损坏的可能性。

存储格式优化:Hive支持多种存储格式,如ORC、Parquet、Avro等。这些格式允许将多个小文件压缩并序列化成一个大文件,存储时占用更少的磁盘和网络带宽。存储格式优化对于处理小文件问题非常有效。

分区表:对于一些常变动的数据,推荐使用分区表。分区表将数据按照不同的分区值存储在不同的目录中。这减少了小文件数量并提高了查询效率。

垃圾回收:如果一个表旧数据经常更新或删除,就会产生大量无用的小文件,因此建议进行垃圾回收。可以定期执行HDFS文件删除命令或者设置TTL等机制,定期删除冗余数据以减少HDFS文件、元数据和NameNode内存的消耗。

通过采取上述措施中的一种或多种,可以极大地减少Hive中小文件数量,优化Hive表的表现并提高查询效率。

1)小文件合并(常用)

可以使用以下命令将 Hive 表中的小文件合并为一个大文件:

上述代码中的参数含义如下:

:设置MapReduce任务处理的最大数据大小,单位是字节,默认为256MB。

:设置如果小于该平均大小的文件需要合并在一起,以减小小文件的数量和规模,单位是字节,默认为16MB。

:使用 CombinHiveInputFormat 作为输入格式合并小文件。

:合并Map文件(.mapred或.mapreduce)以减少小文件的数量。

1、示例演示一(非分区表)

从上图可看到已经有很多小文件了,接下来就是进行合并了。执行以下命令即可:

已经将多个文件合并成一个文件了,达到了小文件合并的效果了。

2、示例演示二(分区表)

其实用的多的还是按分区进行合并,一般表都是有分区的,按分区合并的好处就是减少读写压力,数据量大的情况下分批合并是非常友好的。

从上图可看到已经有很多小文件了,接下来就是进行合并了。执行以下命令即可:

3、示例演示三(临时表)

还有一个更靠谱的方案就是通过将现有的表数据合并写到另外一张临时新表,然后确认合并无误后,将原始表和表数据删除,再将新表名改成旧表名。

示例如下:

创建临时表并将添加合并数据

删除旧表,修改表表名称

2)文件压缩

可以使用以下命令将表中的小文件进行压缩:

3)存储格式优化

使用存储格式进行优化,可以将多个小文件压缩和序列化成一个大文件。以下是使用ORC格式的实现示例:

上述代码中的参数含义如下:

:指定是否开启压缩,如果启用则会对输出进行压缩,以节省存储空间和网络带宽。

:设置压缩算法,这里使用。

:设置ORC文件默认压缩算法,这里使用。

4)分区表

可以使用以下SQL语句创建分区表:

这里将表按照分区值进行存储,可以提高查询效率,减少小文件数量。

5)垃圾回收

删除HDFS中过期的小文件可以减少 HDFS 的存储开销。

可以使用如下命令进行删除操作:

也可以使用 HiveQL 参数 EXPIRE 进行垃圾回收,以将无用的文件从HDFS中删除:

上述代码中将删除旧的分区并从HDFS中永久删除不再需要的数据。

综上所述,可以通过上述方式来处理Hive中小文件问题,以提高Hive的查询效率和性能。

五、HDFS 数据平衡

1)HDFS 数据倾斜

HDFS数据倾斜是指存在一些数据块的大小明显大于其他数据块,导致作业在运行时的处理时间和性能严重不平衡。这通常是由于数据分布不均匀,或者任务负载不均匀导致的。Hive的MapReduce作业经常面临HDFS数据倾斜的问题,这会导致一部分Mapper处理的数据量很大,而其他Mapper却没有得到充分利用。

以下是一些缓解HDFS数据倾斜的方法:

增大文件块大小:如果您的作业经常面临数据倾斜问题,可以尝试增大数据块的大小。这样可以降低Mapper需要处理的数据块数量,从而减少数据块分配不均衡的可能性。

数据合并:如果您的作业中存在大量较小的文件,可以尝试将它们合并为几个较大的文件。这样可以减少地图任务的数目,并有助于均衡任务的负载。

数据重分区:如果在您的作业中数据分布极不均匀,可以尝试使用数据重分区(例如Hive中的 CLUSTER BY 或 DISTRIBUTE BY 语句)来重新组织数据。这可以帮助将相似的数据放在同一个分区中,从而减少数据倾斜的可能性。

动态分区:在Hive中,动态分区可用于根据数据中实际的分区键动态创建分区。它可以使用较小的数据块大小来提高作业的并行性。动态分区还可以通过确保数据分配均衡来缓解数据倾斜的问题。

压缩:使用压缩技术可以减小数据块大小,并减少倾斜问题的可能性。常用的压缩格式包括Gzip、Snappy、LZO等。

HDFS数据倾斜不仅可能出现在数据块的大小上,还可能出现在数据节点(Datanode)的负载上。如果一个Datanode存储的数据块远远多于其他Datanode,那么它处理作业时的负载将远高于其他节点,从而导致整个集群性能下降。下面是一些缓解HDFS数据节点倾斜问题的方法:

增加节点:可以向集群中添加更多的节点,以增加存储能力。这样可以分散节点的负载,避免单个节点负载过高。尽管这样做可能会增加集群的维护成本,但它可以提高集群的性能和可靠性。一般增加完新节点需要做数据平衡,要不然新节点磁盘使用率远低于其它节点的磁盘。

均衡数据分布:您可以使用HDFS中的均衡命令(hdfs balancer)来均衡数据分布。该命令将根据需要将块移动到不同的节点,以保持所有节点的负载相对均衡。

更改块大小:当块大小不均衡时,您可以尝试根据每个节点的存储容量增加或减少块大小,以确保每个节点的负载相对均衡。例如,如果一个节点存储大量的小文件,则可以将块大小增加到更适合这种情况的大小(例如512MB或1GB),以减少每个节点的块数。

数据迁移:如果一个节点负载过高,您可以从该节点中移动一些块到其他节点中,以减轻该节点的负载。这可以通过将块从一个节点复制到另一个节点来实现。需要注意的是,这样做可能会影响作业的性能,因此建议在维护合适的性能的同时进行数据迁移。

需要注意的是,缓解HDFS数据节点倾斜问题需要综合考虑多种因素,包括数据分布、集群规模、硬件配置等。根据具体情况,您可以采取不同的措施来缓解数据节点倾斜的问题。

2)HDFS 数据平衡

HDFS提供了  命令来进行数据平衡呢。hdfs balancer命令可以让HDFS集群重新均衡分布数据块,保证HDFS集群中数据块在各个节点上均衡分布。

命令的语法如下:

参数详解:

:某datanode的使用率和整个集群使用率的百分比差值阈值,达到这个阈值就启动hdfs balancer,取值从1到100,不宜太小,因为在平衡过程中也有数据写入,太小无法达到平衡,默认值:

:分为blockpool和datanode,前者是block pool级别的平衡后者是datanode级别的平衡,BlockPool 策略平衡了块池级别和 DataNode 级别的存储。BlockPool 策略仅适用于 Federated HDFS 服务

:不为空,则不在这些机器上进行平衡

:不为空,则仅在这些机器上进行平衡

:最大迭代次数

另外还有两个常用的参数:

:HDFS做均衡时使用的最大带宽,默认为1048576,即1MB/s,对大多数千兆甚至万兆带宽的集群来说过小。不过该值可以在启动balancer脚本时再设置,可以不修改集群层面默认值。目前目前我们产线环境设置的是50M/s~100M/s。

:是一个Hadoop数据平衡命令hdfs balancer的选项之一,用于设置数据块移动的最长时间。该选项指定了块移动操作在多长时间内必须完成。该选项默认值为毫秒(即2分钟),可以通过以下命令进行修改:

简单使用:

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230511A000SC00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券