当前位置: 首页 > news >正文

Spark之搭建Yarn模式

Spark on YARN(Yet Another Resource Negotiator)是 Spark 框架在 Hadoop 集群中运行的一种部署模式,它借助 Hadoop YARN 来管理资源和调度任务。

架构组成:

ResourceManager:作为 YARN 的核心,负责整个集群的资源管理和调度。它会接收来自各个应用程序的资源请求,并根据集群资源的使用情况进行合理分配。

NodeManager:部署在集群中的每个节点上,负责管理该节点上的资源使用情况,监控容器的运行状态,并且与 ResourceManager 保持通信,汇报节点的资源使用信息。

ApplicationMaster:在 Spark 应用启动时,YARN 会为其分配一个 ApplicationMaster。它的主要职责是向 ResourceManager 申请资源,并且与 NodeManager 协作,启动和管理 Spark 的 Executor 进程。

Spark Driver:负责执行用户编写的 Spark 应用程序代码,将其转化为一系列的任务,并调度这些任务到各个 Executor 上执行。

Executor:运行在 NodeManager 管理的容器中,负责具体执行 Spark 任务,并将执行结果返回给 Driver。

1.上传并解压spark-3.1.2-bin-hadoop3.2.tgz,重命名解压之后的目录为spark-yarn。对应的命令是:tar -zxvf spark-3.3.1-bin-hadoop3.tgz -C /opt/module

2. 修改一下spark的环境变量,/etc/profile.d/my_env.sh 。

3.修改hadoop的配置。/opt/module/hadoop-3.1.3/etc/hadoop/yarn-site.xml。因为测试环境虚拟机内存较少,防止执行过程进行被意外杀死,添加如下配置。

使用xsync /opt/module/hadoop-3.1.3/etc/hadoop/同步一下。

4.修改spark配置。 把三个文件的名字重新设置一下:

workers.tempalte 改成 workers,spark-env.sh.template 改成 spark-env.sh,

spark-defaults.conf.template 改成 spark-defaults.conf。

5.然后,在workers文件中添加:

在spark-env.sh文件中,添加如下:

在spark-defaults.conf文件中,添加如下:

6.同步配置文件到其他设备。xsync /opt/module/spark-yarn/sbin

相关文章:

  • 一文了解 HTTP Content-Type:从基础到实战
  • 魔改离线VLLM
  • Adobe DC 2025安装教程
  • Android usb网络共享详解
  • 【华为HCIP | 华为数通工程师】821—多选解析—第二十四页
  • AI数字人实现原理
  • 动态多因子策略
  • 【轻松学 C:编程小白的大冒险】— 16 函数的定义与调用
  • 速查 Linux 常用指令 II
  • 力扣每日一题之移动零
  • 【BUG】滴答定时器的时间片轮询与延时冲突
  • ChatPromptTemplate创建方式比较
  • Golang实践录:在go中使用curl实现https请求
  • 元宇宙赛道新势力:成都芯谷产业园创新业务如何重构产业格局
  • 量子计算实用化突破:从云端平台到国际竞合,开启算力革命新纪元
  • 查看字节真实二进制形式示例解析1
  • 【教程】Docker方式本地部署Overleaf
  • RHCE认证通过率
  • 建筑工程管理核心功能解析与2025年TOP5系统深度测评(附智能化转型必备工具对比)
  • WPF Datagrid 数据加载和性能
  • 车载抬头显示爆发在即?业内:凭借市场和产业链优势,国内供应商实现反超
  • 四部门:到2025年底,全国行政村5G通达率超过90%
  • 季后赛主场优势消失之谜,这事竟然要赖库里
  • 马上评丨未成年人“擦边”短视频岂能成流量密码
  • 马上评丨学术不容“近亲繁殖”
  • 这座古村,藏着多少赣韵风华