当前位置: 首页 > news >正文

Spark核心概念与DAG执行原理笔记

Spark核心概念与DAG执行原理笔记

本文档基于手写笔记和学习资料,使用Mermaid图表总结Spark的核心概念、DAG执行原理和Stage划分机制,便于复习和理解。

1. Spark核心概念总览

mindmaproot((Spark核心概念))RDD弹性分布式数据集五大特性不可变性分区性依赖关系惰性计算持久化操作类型转换操作Transformations行动操作ActionsDAG有向无环图逻辑执行计划依赖关系窄依赖宽依赖共享变量广播变量Broadcast累加器Accumulator执行流程Driver程序Executor执行器Task任务Stage阶段

2. DAG构建与Stage划分流程

窄依赖
宽依赖
用户代码
RDD转换操作
构建DAG
DAGScheduler分析依赖
依赖类型判断
同一Stage内执行
Stage边界划分
生成Task
新Stage创建
TaskScheduler调度
Executor执行Task
返回结果

3. RDD依赖关系详解

宽依赖 (Wide Dependencies)
窄依赖 (Narrow Dependencies)
子RDD分区1
父RDD分区1
子RDD分区2
父RDD分区2
父RDD分区3
操作: groupByKey, reduceByKey
特点: 一对多
需要Shuffle
Stage边界
子RDD分区1
父RDD分区1
子RDD分区2
父RDD分区2
子RDD分区3
父RDD分区3
操作: map, filter, union
特点: 一对一或多对一
无需Shuffle
可管道化执行

4. Spark作业执行架构

Driver Program DAGScheduler TaskScheduler Cluster Manager Executor 1. 提交Job 2. 构建DAG 3. Stage划分 4. 提交TaskSet 5. 申请资源 6. 启动Executor 7. 分发Task 8. 执行Task 9. 返回结果 10. Stage完成通知 11. Job完成 Driver Program DAGScheduler TaskScheduler Cluster Manager Executor

5. Stage划分原理图

Stage 2
Stage 1
Stage 0
Shuffle Write
Shuffle Write
collect
sortByKey
reduceByKey
flatMap
textFile
filter
mapToPair
窄依赖操作
可在同一Stage执行
宽依赖操作
产生Stage边界
Action操作
触发Job执行

6. Task数量与分区关系

RDD分区数
Task数量
影响因素
数据源分区
Shuffle分区配置
手动设置分区
HDFS Block数量
文件数量
spark.sql.shuffle.partitions
默认200个分区
repartition()
coalesce()
每个分区对应一个Task
并行度 = 分区数

7. 共享变量使用场景

累加器 Accumulators
计数器
sc.longAccumulator()
求和操作
错误统计
调试监控
accumulator.add(value)
accumulator.value()
广播变量 Broadcast Variables
大型只读数据
sc.broadcast(data)
查找表/字典
配置信息
避免数据重复传输
broadcastVar.value()

8. Spark 4.0.0 新特性概览

mindmaproot((Spark 4.0.0))核心升级JDK 17默认Scala 2.13默认丢弃JDK 8/11支持Spark Connect轻量级Python客户端ML on Spark ConnectSwift客户端支持Spark SQLVARIANT数据类型SQL UDFs会话变量管道语法字符串排序规则PySpark增强绘图APIPython数据源APIPython UDTFs统一性能分析Structured Streaming任意状态API v2状态数据源改进的容错机制

9. 学习要点总结

Spark学习重点
理解RDD本质
掌握DAG原理
熟悉Stage划分
优化性能调优
不可变分布式数据集
血缘关系与容错
惰性计算机制
依赖关系分析
执行计划优化
任务调度理解
窄依赖vs宽依赖
Shuffle操作识别
并行度控制
分区策略优化
缓存策略选择
资源配置调优

10. 实践建议

10.1 代码优化建议

  • 优先使用DataFrame/Dataset API而非RDD
  • 合理使用缓存机制(cache/persist)
  • 避免不必要的Shuffle操作
  • 选择合适的分区策略

10.2 性能调优要点

  • 调整并行度(分区数)
  • 优化内存配置
  • 选择合适的序列化方式
  • 监控和分析Spark UI

10.3 故障排查思路

  1. 查看Spark UI中的DAG可视化
  2. 分析Stage执行时间和数据倾斜
  3. 检查Task失败原因和重试情况
  4. 监控资源使用情况(CPU、内存、网络)

注意: 本笔记结合了手写笔记中的DAG、Stage划分、Task调度等核心概念,以及Spark 4.0.0的新特性,形成了完整的知识体系图谱,便于系统性复习和理解Spark的工作原理。

http://www.dtcms.com/a/251174.html

相关文章:

  • 中国风系列简约淡雅通用PPT模版分享
  • Spring Boot 实训项目 - 图书信息网站
  • 鸿蒙Next仓颉语言开发实战教程:设置页面
  • 【系统设计【2】】粗略估算
  • @SpringBootTest 详解
  • langChainv0.3学习笔记(中级篇)
  • 基于PPSO与BP神经网络回归模型的特征选择实战(Python实现)
  • AndroidStudio下载的SDK没有tool目录,或者想要使用uiautomatorviewer工具
  • Java网络编程深度解析
  • 实战指南:部署MinerU多模态文档解析API与Dify深度集成(实现解析PDF/JPG/PNG)
  • 大模型<闲谈>
  • 以太网交换机交换表的建立
  • 234. 回文链表
  • AI驱动SEO关键词精准布局
  • Java微服务框架技术选型全景报告
  • JSONP 跨域请求原理解析与实践
  • LeetCode--31.下一个排列
  • 【编程语言】从C++到Java到Golang,语法特性对比与开发实践指南(基础语法,类型系统,运行机制)
  • 从零开始掌握 Docker:核心命令与实践指南
  • 哈希函数结构:从MD到海绵的进化之路
  • npm install报错
  • MAZANOKE:一款隐私优先的浏览器图像优化工具及Docker部署指南
  • JVM——JVM中的扩展之道
  • ubuntu 22.04 安装部署kibana 7.10.0详细教程
  • leetcode 分割回文串 java
  • 深度对话:TensorFlow与PyTorch的API哲学——如何影响你的模型调试与生产部署?
  • Node.js 中两种模块导出方式区别
  • 数据质量-如何构建高质量的大模型数据集
  • .net6接口多个实现类使用特性标记并解析
  • JavaScript 与 Vue 键盘事件全面指南(Composition API + <script setup>)