当前位置: 首页 > news >正文

WSL2搭建Hadoop伪分布式环境

目录

在 WSL2 Ubuntu 安装必备环境

下载并配置 Hadoop

启动 / 停止 Hadoop

Spring Boot 空项目

一键脚本(WSL)


本文目标:在 WSL2 的 Ubuntu 里跑起单机版 Hadoop(伪分布式),并建好 Spring Boot 空工程

在 WSL2 Ubuntu 安装必备环境

安装 JDK 17

sudo apt install openjdk-17-jdk -y

验证:

java -version

安装 Maven 和 Git

sudo apt install maven git -y

验证:

mvn -v
git --version

安装 SSH

Hadoop 的伪分布式需要本机 SSH:

sudo apt install openssh-server -y

生成免密钥:

ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys

测试:

ssh localhost

应该能直接登录,不再要密码。

下载并配置 Hadoop

创建用户并加权限

# 创建 hadoop 用户
sudo adduser hadoop# 给 hadoop 用户 sudo 权限
sudo usermod -aG sudo hadoop

切换用户

su - hadoop

进入工作目录

mkdir -p ~/bigdata-labs && cd ~/bigdata-labs

下载 Hadoop(3.3.x 为稳定版)

在浏览器打开https://archive.apache.org/dist/hadoop/common/hadoop-3.3.6/hadoop-3.3.6.tar.gz

下载好后放到 /home/hadoop/bigdata-labs 

解压并更名

tar -xvzf hadoop-3.3.6.tar.gz
mv hadoop-3.3.6 hadoop

配置环境变量(hadoop 用户)

编辑:

nano ~/.bashrc

加入:

export HADOOP_HOME=/home/hadoop/bigdata-labs/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

添加之后按ctrl + o 保存,然后按enter确认修改,最后按ctrl + x 退出

刷新:

source ~/.bashrc

继续配置环境变量:

echo 'export HADOOP_HOME=~/bigdata-labs/hadoop' >> ~/.bashrc
echo 'export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin' >> ~/.bashrc
source ~/.bashrc

修改 hadoop-env.sh,指向 JDK17:

nano ~/bigdata-labs/hadoop/etc/hadoop/hadoop-env.sh

在最末尾添加:

export JAVA_HOME=/usr/lib/jvm/java-17-openjdk-amd64

配置 NameNode 地址

在文件夹中找这个路径,\home\hadoop\bigdata-labs\hadoop\etc\hadoop

找到之后有一个 core-site.xml 文件,加入:

<configuration><property><name>fs.defaultFS</name><value>hdfs://localhost:9000</value></property>
</configuration>

这里的 localhost:9000 就是 NameNode 的 RPC 服务地址

然后找 hdfs-site.xml 文件

加入:

<configuration><property><name>dfs.replication</name><value>1</value></property><property><name>dfs.namenode.name.dir</name><value>file:/home/hadoop/bigdata-labs/hadoop/dfs/name</value></property><property><name>dfs.datanode.data.dir</name><value>file:/home/hadoop/bigdata-labs/hadoop/dfs/data</value></property>
</configuration>

dfs.namenode.name.dir  存储 NameNode 的元数据(namespace、FSImage、EditLog 等)
dfs.datanode.data.dir  存储 DataNode 的实际数据块

继续找 yarn-site.xml 文件

加入:

<configuration><!-- ResourceManager 的主机名 --><property><name>yarn.resourcemanager.hostname</name><value>localhost</value></property><!-- NodeManager 管理容器时用的执行器 --><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property>
</configuration>

找到 mapred-site.xml 文件

加入:

<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property>
</configuration>

  

然后由于JDK 17 的模块限制在卡 Guice/cglib(YARN 的 Web/注入框架),默认不允许用反射访问 java.lang 里的受限方法。所以需要给 YARN(以及 Hadoop/MapReduce 守护进程)加上 --add-opens 启动参数

yarn-env.sh

nano $HADOOP_HOME/etc/hadoop/yarn-env.sh

在文件末尾追加一行

export YARN_OPTS="$YARN_OPTS \--add-opens=java.base/java.lang=ALL-UNNAMED \--add-opens=java.base/java.lang.reflect=ALL-UNNAMED \--add-opens=java.base/java.io=ALL-UNNAMED"

hadoop-env.sh

nano $HADOOP_HOME/etc/hadoop/hadoop-env.sh

在文件末尾追加一行

export HADOOP_OPTS="$HADOOP_OPTS \--add-opens=java.base/java.lang=ALL-UNNAMED \--add-opens=java.base/java.lang.reflect=ALL-UNNAMED \--add-opens=java.base/java.io=ALL-UNNAMED"

mapred-env.sh

nano $HADOOP_HOME/etc/hadoop/mapred-env.sh

在文件末尾追加一行

export MAPRED_OPTS="$MAPRED_OPTS \--add-opens=java.base/java.lang=ALL-UNNAMED \--add-opens=java.base/java.lang.reflect=ALL-UNNAMED \--add-opens=java.base/java.io=ALL-UNNAMED"

启动 / 停止 Hadoop

格式化 HDFS(首次需要)

hdfs namenode -format

启动

start-dfs.sh
start-yarn.sh

验证

# 看进程
jps

可以看到以下五个内容

检查 Web UI
NameNode: http://localhost:9870
ResourceManager: http://localhost:8088 (应能看到 1 个活跃的 Node)

停止

stop-yarn.sh
stop-dfs.sh

Spring Boot 空项目

在 IDEA 里新建 Maven 项目 spring-hadoop-playground,依赖:

<dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-client</artifactId><version>3.3.6</version>
</dependency>

测试启动类:

@SpringBootApplication
public class HadoopPlaygroundApp {public static void main(String[] args) {SpringApplication.run(HadoopPlaygroundApp.class, args);}
}

运行后控制台输出 Started HadoopPlaygroundApp 即成功

一键脚本(WSL)

平常如果不写脚本,需要手动敲两条命令:
$HADOOP_HOME/sbin/start-dfs.sh
$HADOOP_HOME/sbin/start-yarn.sh
这样才能同时启动 HDFS(NameNode、DataNode、SecondaryNameNode) 和 YARN(ResourceManager、NodeManager)

脚本的作用:自动化
把这两条命令放进一个 start-hadoop.sh 脚本文件里,下次只要敲:

./start-hadoop.sh

就能一键启动全部服务。

具体操作:

新建 start-hadoop.sh

nano start-hadoop.sh

加入:

#!/bin/bash
$HADOOP_HOME/sbin/start-dfs.sh
$HADOOP_HOME/sbin/start-yarn.sh

然后保存退出


赋权

chmod +x start-hadoop.sh

给脚本执行权限


运行

./start-hadoop.sh

一键执行,省得每次都手动输入两条命令

http://www.dtcms.com/a/409995.html

相关文章:

  • 新闻媒体发稿平台排名Top5,聚合型新闻发稿服务平台推荐
  • Linux(4)|入门的开始:Linux基本指令(4)
  • (七)API 重构的艺术:打造优雅、可维护的 API
  • MAC idea 环境变量设置失效
  • 百度站长收录提交入口深圳设计网站源码
  • 2025Unity超详细《坦克大战3D》项目实战案例(上篇)——UI搭建并使用和数据持久化(附资源和源代码)
  • DenseNet:密集连接
  • 第一次学习Hardhat
  • 腾讯wordpress 建站自适应网站建设哪家便宜
  • 第八章 MyBatis及MyBatis-Plus
  • 5mins了解redis底层数据结源码
  • 华为云学习笔记(四):运维类服务与企业网站上云实践
  • 面向大模型输出的“耐脏” JSON 处理:从清洗到严格化的完整方案
  • 抢先注册网站域名卖掉英文网站建设服务合同
  • Apache、Nginx 和 Tomcat 的区别
  • 解决avue-input-tree组件重置数据不回显/重置失败
  • 苏州网站建设致宇网页设计制作手机网站
  • Kimi-VL:月之暗面开源的视觉语言模型
  • Buck电路项目实战:从原理到实战全解析
  • 如何读懂Mach-O:构建macOS和iOS应用安全的第一道认知防线
  • 远程录制新体验:Bililive-go与cpolar的无缝协作
  • 购物网站制作样例糖果网站建设策划书模板
  • 百度新闻源网站故乡网站开发的意义
  • PortSwigger靶场之Exploiting server-side parameter pollution in a query string通关秘籍
  • OpenLayers地图交互 -- 章节十三:拖拽旋转交互详解
  • 前端常见安全问题都有哪些以及解决方案
  • 算法专题(三)01背包问题理论
  • pycharm 运行不报错,但是调试报错,
  • 原型模式了解
  • 基于hive和mapreduce的地铁数据分析及可视化_hive作为数据库