当前位置: 首页 > news >正文

hadoop伪分布式安装部署

首先jdk安装完毕

jdk安装文档参考:

Linux 环境下安装JDK1.8并配置环境变量_linux安装jdk1.8并配置环境变量_Xi-Yuan的博客-CSDN博客

准备好hadoop的安装包

我的下载地址如下:

We Transfer Gratuit. Envoi sécurisé de gros fichiers.

将hadoop包上传到随便一个目录,但是解压缩到/opt/ 目录下

tar -zvxf /home/hadoop-3.1.3.tar.gz -C /opt/

cd /opt/hadoop-2.9.2/etc/hadoop

vi hadoop-env.sh

#修JAVA_HOME

export JAVA_HOME=/usr/opt/java/jdk1.8.0_339

cd /opt/hadoop-2.9.2/etc/hadoop/

vi core-site.xml

#要添加的配置内容

<property>
<name>fs.default.name</name>
<value>hdfs://192.168.137.15:9000</value>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.137.15:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadooptmp</value>
</property>

配置hdfs-site.xml,制定hdfs保存数据的副本数量,伪分布式只有一个节点,所以填写1

<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/home/hadoopname</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/hadoopdata</value>
</property>

配置mapred-site.xml:原本hadoop文件下没有这个文件,我们copy一个出来

cp mapred-site.xml.template mapred-site.xml

vi mapred-site.xml

#添加以下内容

<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

vi yarn-site.xml

添加两个属性,第一个告诉nodemanager获取数据的方式为shuffle

<property>
<name>yarn.nodemanager.aux-service</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop</value>
</property>

添加hadoop的路径

vi /etc/profile

export HADOOP_HOME=/opt/hadoop-2.9.2

export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

然后生效

source /etc/profile

域名hosts绑定

vi /etc/hosts

#添加本机ip与hosts的绑定

192.168.137.15 hadoop

配置主机的免密登录

cd /root/

# 如果本机没有登录过其它机器时,本地是没有/root/.ssh文件夹的,只需要 ssh hadoop 登录一次就会自动创建了

cd .ssh

ssh-keygen -t rsa

cat id_rsa.pub >> authorized_keys

#测试免输入密码

ssh hadoop

开始初始化和启动hadoop

初始化:

先格式化:

cd /opt/hadoop-2.9.2/etc/hadoop/

hadoop namenode -format

启动

cd /opt/hadoop-2.9.2/sbin

./start-all.sh

jps命令查看已经启动的进程

测试hdfs命令

查看根目录下是否有东西,如果没有则自己新建两个看下哦效果

cd /opt/hadoop-2.9.2/bin

hadoop fs -ls /

hadoop fs -mkdir /test

hadoop fs -mkdir /rt

再次查看

#浏览器测试,输入地址http://192.168.137.15:50070/

ip地址为hadoop虚拟机的ip

相关文章:

  • windows协议详解之-RPC/SMB/LDAP/LSA/SAM域控协议关系
  • vue3 computed 和 watch 的差异
  • DALL·E 3怎么用?DALL·E 3如何申请开通 ?DALL·E 3如何免费使用?AI绘画教程来喽~
  • Rocksdb LSM Tree Compaction策略
  • 【Django restframework】django跨域问题,解决PUT/PATCH/DELETE用ajax请求无法提交数据的问题
  • 生活废品回收系统 JAVA语言设计和实现
  • R语言中fread怎么使用?
  • 单片机设计基于STM32的空气净化器设计
  • 【设计模式】模板方法模式
  • Chromium浏览器启动参数
  • 【Python】Windows跟随程序启动和关闭系统代理
  • 支持多校 微信课表小程序源码 排课小程序源码 支持导入课表 情侣课表 背景设置
  • 【零分配的 JSON 日志记录器】高性能日志框架——ZeroLog
  • MySQL几种方法的数据库备份
  • 代码随想录图论 第一天 | 797.所有可能的路径 200. 岛屿数量
  • 读书笔记之《敏捷测试从零开始》(一)
  • IOS(刘海/留海/流海)屏幕判断
  • CPU眼里的C/C++:1.2 查看变量和函数在内存中的存储位置
  • 黑豹程序员-架构师学习路线图-百科:API接口测试工具Postman
  • 【Opencv】OpenCV使用CMake和MinGW的编译安装出错解决
  • 国泰海通合并后首份业绩报告出炉:一季度净利润增逾391%
  • 浙江官宣:五一假期,没电、没气、没油车辆全部免费拖离高速
  • 发布亮眼一季度报后,东阿阿胶股价跌停:现金流隐忧引发争议
  • 国家发改委下达今年第二批810亿超长期特别国债资金,支持消费品以旧换新
  • 当AI开始深度思考,人类如何守住自己的慢思考能力?
  • 上海出台灵活就业人员公积金新政:不限户籍、提取自由,6月起施行