当前位置: 首页 > news >正文

Hadoop 和 Spark 生态系统中的核心组件

通过jps命令,可以看到如下进程名,请解释一下它们各自是哪个命令产生的,有什么作用?一、Worker

1.来源:Spark 集群的 工作节点(Worker Node),由 start-worker.sh 启动

2.作用

①在从节点上运行,负责执行 Master 分配的任务。

②管理本地的计算资源(CPU、内存)。

③向 Master 汇报心跳和任务状态。

二、NodeManager

1.来源:Hadoop YARN 的 工作节点服务,由 start-yarn.sh 启动。

2.作用

①管理单个节点上的资源(CPU、内存)。

②启动和监控容器(Container),运行 MapReduce 或 Spark 等任务。

③向 ResourceManager 汇报资源使用情况。

三、DataNode

1.来源:Hadoop HDFS 的 数据节点,由 start-dfs.sh 启动。

2.作用

①实际存储 HDFS 的数据块。

②定期向 NameNode 汇报存储状态。

③处理客户端的读写请求。

四、Master

1.来源:Spark 集群的 主节点(Master Node),由 start-master.sh 启动

2.作用

①管理 Spark 集群的资源调度。

②接收客户端提交的任务,分配给 Worker 执行。

③监控 Worker 节点的状态。

五、NameNode

1.来源:Hadoop HDFS 的 主节点,由 start-dfs.sh 启动。

2.作用

①管理 HDFS 文件系统的元数据(如文件目录树、块位置)。

②协调 DataNode 存储和检索数据。

③单点故障关键组件(高可用模式下会有 Standby NameNode)。

六、JobHistoryServer

1.来源:Hadoop MapReduce 的 历史任务服务器,由 mr-jobhistory-daemon.sh start historyserver 启动。

2.作用

①存储和展示已完成的 MapReduce 作业日志。

②提供 Web UI 查看历史任务详情(默认端口:19888)。

七、HistoryServer

1.来源:Spark 的 历史任务服务器,由 start-history-server.sh 启动。

2.作用

①记录和展示已完成的 Spark 应用程序日志。

②提供 Web UI 查看历史任务(默认端口:18080)。

相关文章:

  • 最新字节跳动运维云原生面经分享
  • VScode与远端服务器SSH链接
  • 杭州数据库恢复公司之Dell服务器RAID5阵列两块硬盘损坏报警离线
  • UEC++第15天|番茄插件、实现跳跃、实现背景运动
  • MongoDB的图形化工具robo3t,navicat
  • 深入理解 Web Service:原理、组件与核心技术详解
  • Linux-02-VIM和VI编辑器
  • 【运维心得】银行运维交接的坑
  • 今日行情明日机会——20250429
  • 【3dmax笔记】010: 创建标准基本体、扩展基本体
  • 小结: 接口类型和路由优先级
  • ssh配置与使用
  • USB 网卡——RNDIS 控制消息流程
  • HarmonyOS ArkUI安全控件开发指南:粘贴、保存与位置控件的实现与隐私保护实践
  • Vue 中的过渡效果与响应式数据:transition、transitiongroup、reactive 和 ref 详解
  • 长效住宅IP是什么?如何获取长效住宅IP?
  • 【codeforces 2104D,E】欧拉筛,字符串上dp
  • Makefile 在 ARM MCU 开发中的编译与链接参数详解与实践
  • Spring MVC 如何映射 HTTP 请求到 Controller 方法?
  • 使用 Ziegler-Nichols 法进行 PID 参数整定:实践指南
  • 中国人保不再设监事会,国寿集团未再设置监事长职务
  • 外交部亚洲司司长刘劲松向菲方严肃交涉
  • 成都世运会倒计时100天,中国代表团运动员规模将创新高
  • 美国“杜鲁门”号航母一战机坠海
  • 一场与纪录并行的伦敦马拉松,超40项新世界纪录诞生
  • 国家税务总局:“二套转首套”可以享受贷款利息个税专项扣除