当前位置: 首页 > news >正文

大数据面试之路 (二) hive小文件合并优化方法

大量小文件容易在文件存储端造成瓶颈,影响处理效率。对此,您可以通过合并Map和Reduce的结果文件来处理。 

一、合并小文件的常见场景

  1. 写入时产生小文件:Reduce任务过多或数据量过小,导致每个任务输出一个小文件。

  2. 动态分区插入:分区字段基数高,每个分区生成少量数据,形成大量小文件。

  3. 频繁追加数据:通过INSERT INTO多次追加数据,导致文件碎片化。

二、合并小文件的核心方法

 方法1:调整Reduce任务数量

-- 1. 设置Reduce任务数(根据数据量调整)
SET hive.exec.reducers.bytes.per.reducer=256000000; -- 每个Reduce处理256MB数据
SET hive.exec.reducers.max=1009; -- Reduce最大数量

-- 2. 执行插入操作(自动合并到指定Reduce数)
INSERT OVERWRITE TABLE target_table
SELECT * FROM source_table;

 方法2:启用Hive自动合并

-- 启用Map端和Reduce端小文件合并
SET hive.merge.mapfiles = true;          -- Map-only任务结束时合并小文件
SET hive.merge.mapredfiles = true;       -- Map-Reduce任务结束时合并小文件
SET hive.merge.size.per.task = 256000000; -- 合并后文件目标大小(256MB)
SET hive.merge.smallfiles.avgsize = 16000000; -- 平均文件小于16MB时触发合并

-- 执行插入操作(自动合并)
INSERT OVERWRITE TABLE target_table
SELECT * FROM source_table;

 方法3:使用ALTER TABLE ... CONCATENATE(ORC格式专用)

 -- 合并表或分区的ORC文件
ALTER TABLE table_name [PARTITION (partition_key='value')] CONCATENATE;

方法4:重写数据(通用) 

通过INSERT OVERWRITE重新写入数据,强制合并文件: 

-- 1. 将数据覆盖写入原表(自动合并)
INSERT OVERWRITE TABLE target_table
SELECT * FROM target_table; 

-- 2. 写入新表后替换旧表
CREATE TABLE new_table AS SELECT * FROM old_table;
DROP TABLE old_table;
ALTER TABLE new_table RENAME TO old_table;

 方法5:使用Hadoop命令合并(手动操作)

 合并HDFS上已有的小文件(需谨慎操作):

# 1. 合并HDFS文件到本地(合并后需重新加载)
hadoop fs -getmerge /user/hive/warehouse/table_dir/* merged_file.txt
hadoop fs -put merged_file.txt /user/hive/warehouse/table_dir/

# 2. 使用Hive的`hadoop jar`命令合并(针对特定格式)
hadoop jar $HIVE_HOME/lib/hive-exec.jar -Dmapreduce.job.queuename=default \
  -Dmapreduce.map.memory.mb=2048 \
  org.apache.hadoop.hive.ql.io.HiveFileFormatUtils \
  --combine /user/hive/warehouse/table_dir/ /user/hive/warehouse/table_dir_merged/

三、动态分区场景下的优化 

若使用动态分区(如按天、按用户ID分区),需额外配置:

-- 启用动态分区模式
SET hive.exec.dynamic.partition = true;
SET hive.exec.dynamic.partition.mode = nonstrict;

-- 设置每个Reduce任务写入的分区数
SET hive.optimize.sort.dynamic.partition = true;
SET hive.exec.max.dynamic.partitions = 1000;
SET hive.exec.max.dynamic.partitions.pernode = 100;

四、不同文件格式的注意事项

文件格式合并特点
Text需通过重写数据或Hadoop命令合并。
ORC支持ALTER TABLE ... CONCATENATE快速合并,或重写数据。
Parquet只能通过重写数据合并(如INSERT OVERWRITE)。
RCFile类似ORC,但无专用合并命令,需重写数据。

五、最佳实践 

  1. 写入时预防

    • 合理设置Reduce任务数,避免过度并行化。

    • 启用hive.merge参数自动合并小文件。

  2. 事后合并

    • ORC表优先使用ALTER TABLE ... CONCATENATE

    • 其他格式通过INSERT OVERWRITE重写数据。

  3. 分区管理

    • 避免过多细粒度分区,定期清理过期数据。

 示例:合并ORC表文件

-- 1. 检查表格式
DESCRIBE FORMATTED table_name;

-- 2. 合并文件(ORC格式)
ALTER TABLE table_name CONCATENATE;

-- 3. 验证合并后文件大小
hadoop fs -du -h /user/hive/warehouse/table_dir;

如何调优Hive作业

更多内容请参考 案例云帮助文档

如何调优Hive作业_开源大数据平台 E-MapReduce(EMR)-阿里云帮助中心

相关文章:

  • 写一个简单的SQL生成工具
  • 《论语别裁》第01章 学而(25) 善知识与恶知识
  • 数据库MySQL原理(相关程序)
  • Linux第三次作业
  • Unity 笔记:在EditorWindow中绘制 Sorting Layer
  • el-table树形表格合并相同的值
  • 3ds Max 导入到 After Effects 还原摄像机要注意事项--deepseek
  • 【AI 加持下的 Python 编程实战 2_02】第一章:利用 GitHub Copilot 叩开 AI 辅助编程的大门
  • Python实现计算地图多个点的中心位置(详细功能实现及环境搭建)
  • C语言(25)
  • Python中的简单爬虫
  • JS—垃圾回收机制:5分钟掌握Java和JavaScript垃圾回收机制
  • 华为云在智能制造的创新技术
  • 第三百七十五节 JavaFX教程 - JavaFX表视图
  • axis=0 和 axis=1的区分设置matplotlib正常显示中文和负号
  • Debezium日常分享系列之:Debezium 3.1.0.Beta1发布
  • Redisson 实现分布式锁源码浅析
  • Linux文件IO——缓冲区磁盘上的文件管理
  • 微信小程序刷题逻辑实现:技术揭秘与实践分享
  • 电子电子架构 --- 车载ECU信息安全
  • 媒体评欧阳娜娜遭民进党当局威胁:艺人表达国家认同是民族大义
  • 上海市税务局:收到对刘某某存在涉税问题的举报,正依法依规办理
  • 河南:响鼓重锤对违规吃喝问题露头就打、反复敲打、人人喊打
  • 湃书单|澎湃新闻编辑们在读的14本书:后工作时代
  • 古巴外长谴责美国再次将古列为“反恐行动不合作国家”
  • 因操纵乙烯价格再遭诉讼,科莱恩等四家企业被陶氏索赔60亿