当前位置: 首页 > news >正文

【并行分布计算】Hadoop完全分布搭建

Hadoop完全分布搭建

1.为了使机器都处于同一个局域网中,先要修改机器的ip地址分配方式为固定ip,并为其固定分配一个ip地址。

[root@localhost ~]# vi /etc/sysconfig/network-scripts/ifcfg-ens33

问题:修改ip地址后,网络无法正常链接

解决方法:查看VMware上的DHCP设置中起始IP地址和结束IP地址范围,以及对应网关的IP地址,防止设置IP地址时选错IP地址范围。

修改后网络链接正常:

2.修改主机名,方便辨认机器

[root@localhost ~]# hostnamectl set-hostname hadoop01

修改主机名后需要重启虚拟机:

3. 配置网络映射 /etc/hosts

[root@hadoop01 ~]# vi  /etc/hosts

4. 重启网络服务

[root@hadoop01 ~]# service  network  restart

5.安装ssh服务

(1)查看是否安装ssh

[root@hadoop01 ~]# rpm  -qa  |  grep  ssh

(2)启动ssh服务

[root@hadoop01 ~]# service  sshd  start

6.关闭防火墙

问题:

解决方法:centos7后是使用的基于iptable的systemctl stop firewalld

[root@hadoop01 ~]# yum install iptables-services

[root@hadoop01 ~]# systemctl stop firewalld

7. 开启Hadoop002,修改ip地址和修改主机名

vi /etc/sysconfig/network-scripts/ifcfg-ens33

systemctl restart network

[root@localhost ~]# hostnamectl set-hostname hadoop002

[root@localhost ~]# reboot

8. 开启Hadoop003,修改ip地址和主机名

vi /etc/sysconfig/network-scripts/ifcfg-ens33

systemctl restart network

[root@hadoop01 ~]# hostnamectl set-hostname hadoop003

[root@hadoop01 ~]# reboot

9. 配置hosts文件和ssh免密登录

(1)修改hosts配置文件(包括三台主机)

[root@hadoop01 ~]# vi /etc/hosts

(2)生成密钥文件

[root@hadoop01 ~]# ssh-keygen -t rsa

(3)将本机公钥文件复制到其它虚拟机上(3台主机都要执行)

(4)查看是否成功免密登录

10.hadoop集群配置

(1)在所有虚拟机根目录下新建文件夹export,export文件夹中新建data、servers和software文件

[root@hadoop01 ~]# mkdir -p /export/data

[root@hadoop01 ~]# mkdir -p /export/servers

[root@hadoop01 ~]# mkdir -p /export/software

(2)准备安装包

hadoop-2.7.6.tar.gz
jdk-8u161-linux-x64.tar.gz

(3)jdk安装(3台主机都安装)

[root@hadoop01 software]# tar -zxvf jdk-8u161-linux-x64.tar.gz -C /export/servers/

配置环境变量

vi /etc/profile

使配置文件生效

[root@hadoop01 servers]# source /etc/profile

(4)hadoop安装(3台主机都安装)

[root@hadoop01 software]# tar -zxvf hadoop-2.7.6.tar.gz -C /export/servers/

配置文件

vi /etc/profile

[root@hadoop01 software]# source /etc/profile

[root@hadoop01 software]# hadoop version

(5)Hadoop集群配置

修改hadoop-env.sh文件

[root@hadoop01 hadoop]# vi hadoop-env.sh

修改core-site.xml文件

修改hdfs-site.xml文件

修改mapred-site.xml文件

[root@hadoop01 hadoop]# cp mapred-site.xml.template mapred-site.xml

[root@hadoop01 hadoop]# vi mapred-site.xml

修改yarn-site.xml文件

修改slaves文件

[root@hadoop01 hadoop]# vi slaves

将主节点中配置好的文件和hadoop目录copy给子节点

其中hadoop01为主节点,hadoop002和hadoop003为子节点

scp /etc/profile hadoop002:/etc/profile

scp /etc/profile hadoop003:/etc/profile

scp -r /export/ hadoop002:/

scp -r /export/ hadoop003:/

使子节点中的配置文件生效(hadoop02和hadoop03节点执行命令source /etc/profile)

在主节点格式化文件系统(successfully formatted 格式化成功)

hdfs namenode -format

11.hadoop集群测试

(1)在主节点启动所有HDFS服务进程

[root@hadoop01 hadoop]# start-dfs.sh

[root@hadoop01 hadoop]# start-yarn.sh

(2)使用jps命令查看进程

在Windows系统下,访问http://hadoop01:50070,查看HDFS集群状态

在Windows系统下,访问http://hadoop01:8088,查看Yarn集群状态

相关文章:

  • 【机器学习】大数据时代,模型训练慢如牛?解锁Spark MLlib与分布式策略
  • 【ROS】局部规划器概述
  • 抽象的https原理简介
  • React JSX 语法深度解析与最佳实践
  • 第九节:React HooksReact 18+新特性-React 19的use钩子如何简化异步操作?
  • React 开放封闭原则详解,构建可扩展的应用
  • React Native 0.79 稳定版发布,更快的工具、更多改进
  • 6、事件处理法典:魔杖交互艺术——React 19 交互实现
  • MySQL数据库安装配置详细教程
  • AUTOSAR图解==>AUTOSAR_SWS_DefaultErrorTracer
  • 网络层IP协议知识大梳理
  • 探寻Gson解析遇到不存在键值时引发的Kotlin的空指针异常的原因
  • docker Windows 存放位置
  • k8s 手动续订证书
  • LoRA个关键超参数:`LoRA_rank`(通常简称为 `rank` 或 `r`)和 `LoRA_alpha`(通常简称为 `alpha`)
  • 从EOF到REOF:如何用旋转经验正交函数提升时空数据分析精度?
  • 万向死锁的发生
  • k8s 下 java 服务出现 OOM 后获取 dump 文件
  • pytest自动化中关于使用fixture是否影响用例的独立性
  • 基于PAI+专属网关+私网连接:构建全链路 Deepseek 云上私有化部署与模型调用架构