当前位置: 首页 > news >正文

初次使用基于K3S的大数据平台

文章目录

  • 1. CloudEon概述
  • 2. 查看公有镜像
  • 3. 基于镜像创建云主机
  • 4. 大数据服务管理
    • 4.1 启动cloudeon服务
    • 4.2 进入集群管理后台
    • 4.3 查看集群服务状况
  • 5. 玩一玩HDFS
    • 5.1 HDFS WebUI
    • 5.2 HDFS Shell
      • 5.2.1 查看所有命名空间的Pod
      • 5.2.2 进入名称节点的Pod容器内部
      • 5.2.3 HDFS目录文件操作
      • 5.2.4 运行词频统计程序
      • 5.2.5 退出名称节点的Pod容器
  • 6. 实战总结

1. CloudEon概述

  • CloudEon 是一款面向大数据与云原生融合场景的智能管理平台,旨在简化 Hadoop、Spark、Hive 等开源大数据组件在 Kubernetes(如 K3s)环境中的部署、运维与监控。它提供图形化界面,支持集群一键安装、服务启停、配置管理、状态监控和日志查看,降低运维复杂度。CloudEon 深度集成 K3s 轻量级 Kubernetes 集群,适用于边缘计算、私有云及混合云环境,助力企业快速构建和管理容器化大数据平台,提升资源利用率与系统稳定性。

2. 查看公有镜像

  • 登录实训云,单击[镜像],选择[公有镜像]选项卡
    在这里插入图片描述

3. 基于镜像创建云主机

  • 创建三个云主机,绑定浮动IP地址
    在这里插入图片描述
  • 利用FinalShell远程连接三台云主机
    在这里插入图片描述

4. 大数据服务管理

4.1 启动cloudeon服务

  • 执行命令:docker start cloudeon
    在这里插入图片描述

4.2 进入集群管理后台

  • 访问http://bigdata1:7700/
    在这里插入图片描述
  • 输入用户名和密码(都是admin),单击【登录】按钮,首先看到集群管理界面
    在这里插入图片描述
  • 单击【bigdata】,查看当前集群详情
    在这里插入图片描述

4.3 查看集群服务状况

  • 单击左边栏的【服务】选项卡
    在这里插入图片描述
  • 可以方便地对服务进行各种操作
    在这里插入图片描述

5. 玩一玩HDFS

5.1 HDFS WebUI

  • 访问http://bigdata1:50070/,备用主节点
    在这里插入图片描述
  • 访问http://bigdata2:50070/,当前主节点
    在这里插入图片描述
  • 演示目录和文件操作
    在这里插入图片描述

5.2 HDFS Shell

5.2.1 查看所有命名空间的Pod

  • 执行命令:kubectl get pods -A
    在这里插入图片描述
  • 命令说明:kubectl get pods -A 是 Kubernetes 命令,用于列出所有命名空间(Namespace)中的 Pod。它显示每个 Pod 的名称、所属命名空间、就绪状态、重启次数和运行时长,是检查集群中容器化应用运行情况的常用诊断命令,帮助用户快速识别异常或未就绪的 Pod。

5.2.2 进入名称节点的Pod容器内部

  • 查看列表中的namenode:bigdata hadoop-hdfs-namenode-hdfs-cc946874f-knhrg 1/1
  • 执行命令:kubectl exec -it hadoop-hdfs-namenode-hdfs-cc946874f-knhrg -n bigdata -- bash
    在这里插入图片描述
  • 命令说明:该命令用于进入 HDFS NameNode 的 Pod 容器内部。kubectl exec -it 表示以交互式终端方式执行,hadoop-hdfs-namenode-hdfs-cc946874f-knhrg 是目标 Pod 名称,-n bigdata 指定命名空间,-- bash 表示在容器中启动 bash 命令行,便于执行 HDFS 管理命令或排查问题。
  • 进入 HDFS NameNode 容器后,可直接执行 hdfs dfs 等命令管理 HDFS 文件系统。结果将显示在终端,如目录列表、操作成功/失败提示。通过此方式可进行文件读写、权限设置、集群状态检查等运维操作,便于调试和验证 HDFS 服务是否正常运行。

5.2.3 HDFS目录文件操作

  1. 查看目录
    • 执行命令:hdfs dfs -ls /
      在这里插入图片描述
  2. 创建目录
    • 执行命令:hdfs dfs -mkdir -p /wordcount/input
      在这里插入图片描述
  3. 上传文件
    • 执行命令:vim words.txt,创建本地文件
      在这里插入图片描述
    • 执行命令:hdfs dfs -put words.txt /wordcount/input
      在这里插入图片描述

5.2.4 运行词频统计程序

  1. 查看Hadoop自带示例jar包
    • 执行命令:cd $HADOOP_HOME/share/hadoop/mapreduce
      在这里插入图片描述`
    • 执行命令:ls
      在这里插入图片描述
  2. 运行示例jar包里的词频统计
    • 执行命令:hadoop jar ./hadoop-mapreduce-examples-3.3.4.jar wordcount /wordcount/input/words.txt /wordcount/output
      在这里插入图片描述
  3. 查看词频统计结果
    • 执行命令:hdfs dfs -ls /wordcount/output
      在这里插入图片描述
    • 执行命令:hdfs dfs -cat /wordcount/output/*
      在这里插入图片描述

5.2.5 退出名称节点的Pod容器

  • 执行命令:exit
    在这里插入图片描述

6. 实战总结

  • 通过本次实训,掌握了基于 K3S 和CloudEon构建容器化大数据平台的核心流程。从云主机创建、服务部署到 HDFS 实际操作,全面体验了云原生环境下大数据组件的管理与使用。通过 WebUI 和 Shell 两种方式操作 HDFS,完成了文件上传、目录管理及 MapReduce 词频统计任务,验证了集群功能的完整性。不仅加深了对 Kubernetes Pod、容器执行命令等底层机制的理解,也提升了对 Hadoop 生态在现代化架构中应用的认知,为后续学习分布式计算与大数据运维打下坚实基础。
http://www.dtcms.com/a/495396.html

相关文章:

  • 极简入门Zookeeper
  • 国产工业软件:制造强国的“破局”之路
  • 从重机展到全球市场:数字化助力装备制造企业实现规范化管理
  • 半导体制造工艺基本认识 二 氧化
  • MongoDB 是关系型数据库吗?
  • 织梦dedecms网站内容页wordpress rss导入
  • RAG各模块联合优化思路:多智能体协作建模-MMOA-RAG浅尝
  • 【小白笔记】KNN 核心预测函数 _predict_one 的过程
  • 营销人职业成长路径:从执行到战略的能力进阶与知识体系构建
  • Elasticsearch 推理 API 增加了开放的可定制服务
  • 做电影网站还能赚钱ace wordpress
  • 建设农家书屋官方网站临沂设计网站的公司
  • 10.queue的模拟实现
  • 有多少网站可以推广业务阿里云个人网站建设
  • 【知识点总结】Vue2 与 Vue2 区别
  • 【CV】神经网络中哪些参数需要被学习?
  • Spring两大漏洞可导致泄露敏感信息及安全防护绕过(CVE-2025-41253/41254)
  • 了解一个文件签名验证工具——sigverif
  • 河北建筑网站江小白网络营销案例
  • 张家口网站建设开发网站开发案例教程
  • 【NestJS】class-transformer什么用
  • 【word多文档docx合并】
  • Endnote | word中加载项消失不见,如何处理?
  • 聊聊 Unity(小白专享、C# 小程序 之 图片播放器)
  • 查询个人房产信息网站查看wordpress密码破解
  • 做网站用什么框架dede淘宝客网站
  • 高级篇:Python脚本(101-150)
  • pdf解析工具---Miner-u 本地部署记录
  • 怎么快速做网站文章新乡个人网站建设价格
  • 关于.net网站开发外文书籍wordpress子标题