当前位置: 首页 > news >正文

中国菲律宾商会网站seo优化免费

中国菲律宾商会,网站seo优化免费,多少钱网站设计,福建建设人才市场官方网站想在 CentOS 上安装 Hadoop 3.4.1,我给你写一个完整、可执行的安装配置流程(假设你已经下载了 hadoop-3.4.1.tar.gz 并且系统已经安装了 JDK 11)。1️⃣ 准备工作安装 Java(JDK 11)并设置环境变量:sudo mkd…

想在 CentOS 上安装 Hadoop 3.4.1,我给你写一个完整、可执行的安装配置流程(假设你已经下载了 hadoop-3.4.1.tar.gz 并且系统已经安装了 JDK 11)。


1️⃣ 准备工作

  1. 安装 Java(JDK 11)并设置环境变量:

sudo mkdir -p /opt/jdk
sudo tar -zxvf jdk-11.0.27_linux-x64_bin.tar.gz -C /opt/jdk
echo "export JAVA_HOME=/opt/jdk/jdk-11.0.27" | sudo tee -a /etc/profile
echo "export PATH=\$JAVA_HOME/bin:\$PATH" | sudo tee -a /etc/profile
source /etc/profile
java -version   # 验证
  1. 创建 Hadoop 安装目录:

sudo mkdir -p /opt/hadoop
sudo chown -R $(whoami):$(whoami) /opt/hadoop

2️⃣ 解压 Hadoop

cd /opt/hadoop
tar -zxvf /path/to/hadoop-3.4.1.tar.gz
#或者
#cd /opt
#sudo tar -zxvf hadoop-3.4.1.tar.gz -C /opt/hadoopmv hadoop-3.4.1 hadoop

此时 Hadoop 安装目录为 /opt/hadoop/hadoop


3️⃣ 配置环境变量

编辑用户 .bashrc 或全局 /etc/profile

nano ~/.bashrc

添加以下内容:

# Hadoop 环境变量
export HADOOP_HOME=/opt/hadoop/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export JAVA_HOME=/opt/jdk/jdk-11.0.27

sudo /opt/hadoop/hadoop-3.4.1/bin/hdfs namenode -format

netstat -tlnp | grep 9000

生效配置:

source ~/.bashrc

验证:

hadoop version

4️⃣ 配置 Hadoop

进入配置文件目录:

cd $HADOOP_HOME/etc/hadoop

编辑核心配置文件:

4.1 core-site.xml

<configuration><property><name>fs.defaultFS</name><value>hdfs://localhost:9000</value></property>
</configuration>

4.2 hdfs-site.xml

<configuration><property><name>dfs.replication</name><value>1</value></property><property><name>dfs.namenode.name.dir</name><value>file:///opt/hadoop/hadoopdata/hdfs/namenode</value></property><property><name>dfs.datanode.data.dir</name><value>file:///opt/hadoop/hadoopdata/hdfs/datanode</value></property>
</configuration>

或者

<configuration><property><name>dfs.data.dir</name><value>/data/hdfs/datanode</value></property><property><name>dfs.replication</name><value>1</value> <!-- 单副本方便测试 --></property>
</configuration>

core-site.xml必须配合hdfs-site.xml的文件配置,

单独的core-site.xml的文件只能启动namenode节点

单独的hdfs-site.xml的文件只能启动datanode节点

如何单独启动namenode节点和datanode节点

命令行:

 hdfs --daemon start datanode
 hdfs --daemon stop datanode
 hdfs --daemon start namenode
 hdfs --daemon stop namenode

如果启动后出现

或者出现hdfs命令找不到就会是hdfs-site.xml出错。

可能是hdfs-site.xml的目录配错了。

修改成

netstat -tlnp | grep 9000

使用 jps 检查进程:

命令行:jps

4.3 mapred-site.xml

复制模板文件:

在文件夹

/opt/hadoop/hadoop-3.4.1/etc/hadoop

这里

cp mapred-site.xml.template mapred-site.xml
nano mapred-site.xml

cp命令是复制粘贴一个命名改变的文件。

不改变原文件。

添加:

<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property>
</configuration>

4.4 yarn-site.xml

<configuration><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property>
</configuration>

5️⃣ 创建 HDFS 数据目录

mkdir -p /opt/hadoop/hadoopdata/hdfs/namenode
mkdir -p /opt/hadoop/hadoopdata/hdfs/datanode

确保当前用户可写:

sudo chmod 777 /opt/hadoop/hadoopdata
sudo chown -R $(whoami):$(whoami) /opt/hadoop/hadoopdata

6️⃣ 格式化 Namenode

hdfs namenode -format

输出成功提示表示 HDFS 可以启动。


7️⃣ 启动 Hadoop

  • 启动 HDFS:

start-dfs.sh
  • 启动 YARN:

start-yarn.sh
  • 验证:

jps

应该看到:

NameNode
DataNode
SecondaryNameNode
ResourceManager
NodeManager

停止

stop-dfs.shstop-yarn.sh

8️⃣ 测试 Hadoop

创建目录并上传文件:

hdfs dfs -mkdir /userhdfs dfs -mkdir /user/$(whoami)/1
hdfs dfs -mkdir /user/$(whoami)
hdfs dfs -put /etc/hosts /user/$(whoami)/
hdfs dfs -put /test/ /user/$(whoami)/
hdfs dfs -ls /user/$(whoami)

hdfs删除文件

hdfs删除文件hdfs dfs -rm /user/$(whoami)/hostshdfs删除空文件夹hdfs dfs -rm /user/$(whoami)/hosts使用递归删除命令可删除有文件的文件夹:hdfs dfs -rm -r /user/$(whoami)/test

✅ 到此,Hadoop 3.4.1 + JDK 11 在 CentOS 上已经配置完成,并且可以正常使用 HDFS 和 YARN。


注意事项

  1. 单独 DataNode 必须能访问 NameNode,否则无法注册。

  2. dfs.data.dir 必须有写权限。

  3. 如果是单节点集群,只启动 DataNode 没用,因为没有 NameNode 管理元数据。

  4. 可用于扩展已有 NameNode 集群,增加存储容量。

根据你的 jps 输出,你的 Hadoop 组件都在运行:

28126 NameNode
28254 DataNode
28537 SecondaryNameNode
28809 ResourceManager
28915 NodeManager

对应的 Web UI 地址如下:


1️⃣ NameNode Web UI

  • 查看 HDFS 状态(文件系统容量、目录、DataNode 状态等)

  • 默认端口:9870(Hadoop 3.x)

http://localhost:9870/
  • 功能:

    • 查看 HDFS 总容量和已用容量

    • 查看 DataNode 列表和状态

    • 浏览 HDFS 目录结构


2️⃣ ResourceManager Web UI

  • 查看 YARN 集群状态和运行中的 MapReduce 任务

  • 默认端口:8088

http://localhost:8088/
  • 功能:

    • 集群节点状态(NodeManager 列表)

    • 正在运行的应用程序(MapReduce 作业)

    • 作业历史记录


3️⃣ DataNode / NodeManager Web UI(可选)

  • DataNode 默认端口:9864

http://localhost:9864/
  • NodeManager 默认端口:8042

http://localhost:8042/
  • 功能:

    • 查看单个节点的资源使用情况

    • 查看运行的容器和日志


总结

  • HDFS 文件系统http://localhost:9870/

  • YARN 集群 / MapReduce 作业http://localhost:8088/

  • 单节点状态(可选):

    • DataNode:http://localhost:9864/

    • NodeManager:http://localhost:8042/

你可以先打开 http://localhost:9870/ 查看 HDFS,再打开 http://localhost:8088/ 查看 MapReduce 作业状态。

http://www.dtcms.com/a/411191.html

相关文章:

  • CS课程项目设计18:基于Insightface人脸识别库的课堂签到系统
  • 收录网站的二级域名郑州又上热搜了
  • 济南企业型网站深圳定制网站制作
  • 【2025】Mixxx 2.5.1安装教程保姆级一键安装教程(附安装包)
  • 算法学习之 二分
  • Carboxyrhodamine 110 Alk,羧基罗丹明110-炔基在点击化学的应用
  • 日记 - 2025.9.26 读研日记(二)
  • 做网站数据库表设计优化大师win7官方免费下载
  • 中建建设银行网站电子邮箱
  • display ip routing-table 概念及题目
  • spring 第三级缓存singletonFactories的作用及@Async造成循环依赖报错原因分析
  • 什么是静态IP?静态IP和动态IP的对比
  • IP子网掩码的计算
  • 济南富新网站建设福州服务类网站建设
  • 网站设置快捷方式到桌面找大学生做家教的网站
  • 手机提词器APP对比测评
  • 【不背八股】18.GPT1:GPT系列的初代目
  • 体系化能力
  • 小谈:AR/VR(增强/虚拟现实)技术
  • 服务器建网站seo外链推广平台
  • Android studio图像视图和相对布局知识点
  • 网站备案主体空壳上不了国外网站 怎么做贸易
  • 适合设计制作公司的网站asp远吗宁波网站建设培训学校
  • 【AI论文】Qwen3-Omni技术报告
  • 门业网站 源码杭州亚运会闭幕式
  • 中裕隆建设有限公司网站考研资料找微信hyhyk1推广可以
  • LeetCode 3132.找出与数组相加的整数 II
  • 手机网站设计推荐微信电影网站建设教程
  • 【AI八股文】03-监督学习方案面试篇
  • 机器学习第十六章 基于RNN和注意力机制的自然语言处理