当前位置: 首页 > news >正文

Hadoop和Spark生态系统

通过jps命令,可以看到如下进程名,请解释一下它们各自是哪个命令产生的,有什么作用?一、Worker

1.来源:Spark 集群的 工作节点(Worker Node),由 start-worker.sh 启动

2.作用:

①在从节点上运行,负责执行 Master 分配的任务。

②管理本地的计算资源(CPU、内存)。

③向 Master 汇报心跳和任务状态。

二、NodeManager

1.来源:Hadoop YARN 的 工作节点服务,由 start-yarn.sh 启动。

2.作用:

①管理单个节点上的资源(CPU、内存)。

②启动和监控容器(Container),运行 MapReduce 或 Spark 等任务。

③向 ResourceManager 汇报资源使用情况。

三、DataNode

1.来源:Hadoop HDFS 的 数据节点,由 start-dfs.sh 启动。

2.作用:

①实际存储 HDFS 的数据块。

②定期向 NameNode 汇报存储状态。

③处理客户端的读写请求。

四、Master

1.来源:Spark 集群的 主节点(Master Node),由 start-master.sh 启动

2.作用:

①管理 Spark 集群的资源调度。

②接收客户端提交的任务,分配给 Worker 执行。

③监控 Worker 节点的状态。

五、NameNode

1.来源:Hadoop HDFS 的 主节点,由 start-dfs.sh 启动。

2.作用:

①管理 HDFS 文件系统的元数据(如文件目录树、块位置)。

②协调 DataNode 存储和检索数据。

③单点故障关键组件(高可用模式下会有 Standby NameNode)。

六、JobHistoryServer

1.来源:Hadoop MapReduce 的 历史任务服务器,由 mr-jobhistory-daemon.sh start historyserver 启动。

2.作用:

①存储和展示已完成的 MapReduce 作业日志。

②提供 Web UI 查看历史任务详情(默认端口:19888)。

七、HistoryServer

1.来源:Spark 的 历史任务服务器,由 start-history-server.sh 启动。

2.作用:

①记录和展示已完成的 Spark 应用程序日志。

②提供 Web UI 查看历史任务(默认端口:18080)。

相关文章:

  • Python----神经网络(《Inverted Residuals and Linear Bottlenecks》论文概括和MobileNetV2网络)
  • 组策略+注册表解决 系统还原 被禁问题
  • 文件相关操作
  • tomcat与nginx之间实现多级代理
  • NPOI 操作 Word 文档
  • 【Qt开发】信号与槽
  • 计数循环java
  • agentmain对业务的影响
  • 解构认知边界:论万能方法的本体论批判与方法论重构——基于跨学科视阈的哲学-科学辩证
  • 小白成长之路-vim编辑
  • 解锁Python TDD:从理论到实战的高效编程之道(9/10)
  • curl发送数据不为null,但是后端接收到为null
  • 界面组件DevExpress WPF中文教程:Grid - 如何自定义Band Header外观?
  • 里氏替换原则:Java 面向对象设计的基石法则
  • 鸿蒙 Core File Kit(文件基础服务)之简单使用文件
  • 【Bug】多文件上传只有最后一个loading会关闭
  • Ubuntu 上安装 FTP 服务、开放指定端口并创建用户
  • vue3学习——组合式 API:生命周期钩子
  • 电机控制储备知识学习(一) 电机驱动的本质分析以及与磁相关的使用场景
  • FFmpeg在Android开发中的核心价值是什么?
  • 落实中美经贸高层会谈重要共识,中方调整对美加征关税措施
  • 6连败后再战萨巴伦卡,郑钦文期待打出更稳定发挥
  • 走进“双遗之城”,领略文武风采:沧州何以成文旅新贵
  • 外交部:中方愿根据当事方意愿,为化解乌克兰危机发挥建设性作用
  • 在地球另一端的交流,架起2万公里间更多共赢的桥梁
  • A股三大股指集体高开