当前位置: 首页 > news >正文

MapReduce的shuffle过程详解

        本文对 MapReduce 的 Shuffle 过程的详细、全面且从底层原理及源代码层面进行的解释。Shuffle 过程是 MapReduce 框架中连接 Map 阶段和 Reduce 阶段的关键步骤,其核心功能是将 Map 任务的输出按照某种规则重新组织并分发到 Reduce 任务中,确保每个 Reduce 任务能够接收到属于其处理范围的全部数据。


1. Shuffle 过程概述

        在 MapReduce 中,Map 任务处理输入数据并生成中间键值对 ⟨key,value⟩。这些中间结果需要传递给 Reduce 任务进行进一步处理。然而,Map 任务的输出通常分布在多个节点上,且键值对需要根据键进行分组和排序,以便每个 Reduce 任务处理特定的键范围。Shuffle 过程负责以下任务:

  • 分区(Partitioning):将 Map 输出的键值对分配到不同的 Reduce 任务。
  • 排序(Sorting):对每个 Reduce 任务的输入数据按键进行排序。
  • 合并(Merging):将多个 Map 任务的输出合并为 Reduce 任务的输入。
  • 数据传输:将 Map 输出从 Map 节点传输到 Reduce 节点。

        Shuffle 过程可以分为 Map 端 Shuffle 和 Reduce 端 Shuffle 两个阶段。以下从底层原理和 Hadoop 源代码(基于 Hadoop MapReduce 框架)逐步剖析。


2. Map 端 Shuffle 过程

        Map 端的 Shuffle 过程主要负责生成中间结果、对其进行分区、排序和存储,以便 Reduce 任务能够高效获取数据。

2.1 输出收集与缓冲区

        Map 任务的输出通过 OutputCollector 收集,键值对被写入一个内存缓冲区(MapOutputBuffer)。在 Hadoop 中,MapTask 类的 runNewMapper 方法调用 Mapper 的 map 方法,生成的键值对通过 Context.write 方法写入缓冲区。

底层原理

  • 缓冲区是一个固定大小的内存区域(通常为 100MB,由配置参数 mapreduce.task.io.sort.mb 控制,默认 100MB,其中 80% 用于数据存储)。
  • 缓冲区使用环形缓冲(CircularBuffer)结构,分为两部分:
    • 键值对数据:存储序列化后的键值对。
    • 索引数据:存储键值对的元信息(如分区号、键值对的起始位置等)。
  • 当缓冲区使用率达到一定阈值(由 mapreduce.map.sort.spill.percent 控制,默认 0.8,即 80%),触发 Spill 操作,将缓冲区内容写入磁盘。

源代码分析(基于 Hadoop 3.x):

        在 MapTask 类中,MapOutputBuffer 负责管理缓冲区:

public class MapOutputBuffer<K extends Object, V extends Object> implements MapOutputCollector<K, V> {private final int bufferSize; // 缓冲区大小private final float spillPercent; // 溢出阈值private final ByteBuffer kvbuffer; // 环形缓冲区private final IntBuffer kvmeta; // 元数据缓冲区public MapOutputBuffer(JobConf job, TaskAttemptID taskAttemptId) {bufferSize = job.getInt(JobConf.MAPRED_MAP_TASK_IO_SORT_MB, 100) * 1024 * 1024;spillPercent = job.getFloat(JobConf.MAPRED_MAP_TASK_IO_SORT_FACTOR, 0.8f);kvbuffer = ByteBuffer.allocate(bufferSize);kvmeta = IntBuffer.allocate(bufferSize / 4); // 元数据占用 1/4 空间}
}

键值对通过 collect 方法写入 kvbuffer,元数据(如分区号、键长度、值长度)写入 kvmeta。

2.2 分区(Partitioning)

        Map 输出的每个键值对需要分配到一个 Reduce 任务。分区由 Partitioner 类决定,默认使用 HashPartitioner。

底层原理

  • HashPartitioner 根据键的哈希值计算分区号:partition=hash(key)%numReduceTasks
  • 分区号决定了该键值对将发送到哪个 Reduce 任务。

源代码分析
HashPartitioner 的实现如下:

public class HashPartitioner<K, V> extends Partitioner<K, V> {public int getPartition(K key, V value, int numReduceTasks) {return (key.hashCode() & Integer.MAX_VALUE) % numReduceTasks;}
}
  • key.hashCode() 计算键的哈希值。
  • & Integer.MAX_VALUE 确保哈希值为非负数。
  • 模 numReduceTasks 确定分区号。

用户可以自定义 Partitioner 以实现特定的分区逻辑。

2.3 排序与溢出(Spill)

当缓冲区接近满时(阈值0.8),触发 Spill 操作,将缓冲区内容写入磁盘临时文件。

底层原理

  • 排序:在 Spill 之前,缓冲区中的键值对按 分区号 和  进行排序(快速排序算法)。排序确保同一分区的键值对聚集在一起,且键值对按键有序。
  • 溢出文件:排序后的键值对写入磁盘临时文件(SpillRecord),每个 Spill 生成一个文件。
  • Combiner(可选):如果配置了 Combiner(类似于局部 Reduce),在 Spill 之前或之后对键值对进行局部聚合,减少数据量。

源代码分析
MapOutputBuffer 的 sortAndSpill 方法负责排序和溢出:

private void sortAndSpill() throws IOException {// 按分区号和键排序sorter.sort(kvbuffer, kvmeta, 0, kvmeta.position() / KV_PER_RECORD, comparator);// 如果有 Combiner,调用 Combiner 进行局部聚合if (combiner != null) {combineAndSpill();} else {spillSingleRecord();}
}
  • sorter 使用快速排序算法(QuickSort)。
  • combineAndSpill 调用 Combiner 处理排序后的键值对。
  • spillSingleRecord 将数据写入磁盘临时文件。

2.4 合并(Merge)

        当 Map 任务完成时,缓冲区可能包含多个 Spill 文件和最后未溢出的数据。这些数据需要合并为一个或多个输出文件,供 Reduce 任务读取。

底层原理

  • 段合并(Segment Merge):将内存中的最后一块数据(未溢出部分)与磁盘上的 Spill 文件合并。
  • 合并过程使用 多路归并排序,确保输出按分区号和键排序。
  • 合并后的输出文件分为多个分区,每个分区对应一个 Reduce 任务。

源代码分析
MapOutputBuffer 的 commit 方法调用合并逻辑:

public void commit() throws IOException {if (kvmeta.position() > 0) {sortAndSpill(); // 处理最后一块数据}mergeParts(); // 合并所有 Spill 文件
}

mergeParts 使用 SpillMerge 类执行多路归并:

private void mergeParts() throws IOException {// 使用优先队列进行多路归并PriorityQueue<Segment> queue = new PriorityQueue<>(segments.size(), segmentComparator);queue.addAll(segments);// 合并输出到最终文件while (!queue.isEmpty()) {Segment segment = queue.poll();// 读取 Segment 数据并写入输出}
}

合并后的文件存储在本地磁盘,路径由 mapreduce.cluster.local.dir 配置。


3. Reduce 端 Shuffle 过程

        Reduce 端的 Shuffle 过程负责从所有 Map 任务获取数据、合并和排序,最终为 Reduce 任务提供输入。

3.1 数据拉取(Fetch)

Reduce 任务通过 HTTP 协议从 Map 任务所在节点拉取其分区数据。

底层原理

  • Reduce 任务通过 ShuffleScheduler 跟踪 Map 任务的完成状态。
  • 每个 Map 任务完成后,Reduce 任务通过 MapOutputCopier 从 Map 节点下载对应分区的数据。
  • 数据传输使用 Jetty 服务器(Hadoop 内置的 HTTP 服务器)。

源代码分析
ReduceTask 类的 runNewReducer 方法启动 Shuffle 过程:

public class ReduceTask extends Task {private Shuffle shuffle;public void runNewReducer(JobConf job, TaskUmbilicalProtocol umbilical) throws IOException {shuffle = new Shuffle(job, this, umbilical);shuffle.run();}
}

Shuffle 类的 run 方法负责数据拉取:

public class Shuffle {public void run() throws IOException {copyFromMapOutputs(); // 拉取 Map 输出merge(); // 合并数据}
}

copyFromMapOutputs 使用 MapOutputCopier 并行拉取数据:

private void copyFromMapOutputs() throws IOException {List<MapOutputCopier> copiers = new ArrayList<>();for (MapOutputLocation loc : mapLocations) {MapOutputCopier copier = new MapOutputCopier(loc);copiers.add(copier);copier.start();}
}

3.2 合并(Merge)

        拉取的 Map 输出数据可能存储在内存或磁盘上,Reduce 端需要将这些数据合并为一个有序的输入流。

底层原理

  • 内存合并:小块数据直接存储在内存缓冲区(由 mapreduce.reduce.shuffle.input.buffer.percent 控制)。
  • 磁盘合并:当内存不足时,数据溢出到磁盘,生成临时文件。
  • 多路归并:使用优先队列实现多路归并排序,确保数据按键有序。
  • 分组:合并后的数据按键分组,同一键的所有值形成一个迭代器,供 Reduce 函数处理。

源代码分析
MergeManager 类负责合并逻辑:

public class MergeManager {private final List<Segment> memorySegments = new ArrayList<>();private final List<Segment> diskSegments = new ArrayList<>();public void reserve(Segment segment) throws IOException {if (memoryUsage < memoryLimit) {memorySegments.add(segment); // 存储到内存} else {spillToDisk(segment); // 溢出到磁盘}}public void merge() throws IOException {PriorityQueue<Segment> queue = new PriorityQueue<>(segmentComparator);queue.addAll(memorySegments);queue.addAll(diskSegments);// 多路归并while (!queue.isEmpty()) {Segment segment = queue.poll();// 输出到 Reduce}}
}

3.3 数据传递给 Reduce

        合并后的数据通过 GroupingComparator 按键分组,同一键的所有值形成一个 Iterable,传递给 Reduce 函数。

源代码分析
ReduceTask 的 runNewReducer 方法调用 Reducer:

public void runNewReducer(JobConf job, TaskUmbilicalProtocol umbilical) throws IOException {reducer.run(context); // 调用 Reducer 的 run 方法
}

Reduce 函数接收分组后的数据:

public class Reducer<K, V> {public void reduce(K key, Iterable<V> values, Context context) throws IOException {for (V value : values) {// 处理键值对}}
}

4. 性能优化与配置

Shuffle 过程涉及大量 I/O 和网络传输,是 MapReduce 的性能瓶颈。以下是常见的优化策略:

  • 缓冲区大小:增大 mapreduce.task.io.sort.mb 和 mapreduce.reduce.shuffle.input.buffer.percent 减少 Spill 和磁盘 I/O。
  • Combiner:在 Map 端使用 Combiner 减少传输的数据量。
  • 压缩:启用中间数据压缩(mapreduce.map.output.compress)减少网络和磁盘开销。
  • 并行拉取:调整 mapreduce.reduce.shuffle.parallel.copies 增加并行下载线程数。
  • 自定义 Partitioner 和 Comparator:优化分区和排序逻辑。

5. 总结

        Shuffle 过程是 MapReduce 的核心环节,连接 Map 和 Reduce 阶段。Map 端通过缓冲区管理、分区、排序和合并生成中间结果,Reduce 端通过数据拉取、合并和分组为 Reduce 任务准备输入。从源代码层面看,Hadoop 的 MapOutputBuffer、Shuffle 和 MergeManager 等类实现了这些功能。

        理解 Shuffle 的底层原理和配置优化对提高 MapReduce 作业性能至关重要。

相关文章:

  • 【C++初阶】--- 模板进阶
  • 将infinigen功能集成到UE5--在ue里面写插件(python和c++)
  • 在Mybatis中写sql的常量应用
  • Redis Sentinel 和 Redis Cluster 各自的原理、优缺点及适用场景是什么?
  • 同一个路由器接口eth0和ppp0什么不同?
  • springboot中有关数据库信息转换的处理
  • Opencv中图像深度(Depth)和通道数(Channels)区别
  • MySQL事务隔离级别的实现原理MVCC
  • 51c自动驾驶~合集37
  • 「国产嵌入式仿真平台:高精度虚实融合如何终结Proteus时代?」——从教学实验到低空经济,揭秘新一代AI赋能的产业级教学工具
  • 夜族觉醒 服务搭建 异地联机 保姆教程 流畅不卡顿
  • 【linux网络】网络基础概念
  • 流量守门员:接口限流艺术
  • 软件设计师-软考知识复习(2)
  • vue3+flex动态的绘制蛇形时间轴
  • Python小程序:上班该做点摸鱼的事情
  • vue3+Nest.js项目 部署阿里云
  • 字节跳动社招面经 —— BSP驱动工程师(4)
  • vue.js中的一些事件修饰符【前端】
  • uni-app 中封装全局音频播放器
  • 张炜琳已任三明市委常委、宣传部部长
  • 上海“模速空间”:将形成人工智能“北斗七星”和群星态势
  • 鄂湘赣“中三角”,能否走向文旅C位?
  • 柴德赓、纪庸与叫歇碑
  • 李公明|一周画记:哈佛打响第一枪
  • 酒店就“保洁员调包住客港币”致歉,称希望尽早达成解决方案