当前位置: 首页 > news >正文

怎呀做网站网站超级外链

怎呀做网站,网站超级外链,深圳百度地图,旅游公司的网站怎么做环境准备 系统要求:Ubuntu 20.04/22.04 LTS 软件版本: Hadoop 3.3.5 JDK 8 Spark-3.5.6-bin-hadoop3 硬件要求:至少4GB内存,20GB磁盘空间 以下是基于Ubuntu系统的Spark伪分布式集群搭建全流程。以Spark 3.5.6 Hadoop 3.3.…
环境准备
  1. 系统要求:Ubuntu 20.04/22.04 LTS

  2. 软件版本

    • Hadoop 3.3.5

    • JDK 8

    • Spark-3.5.6-bin-hadoop3

  3. 硬件要求:至少4GB内存,20GB磁盘空间

以下是基于Ubuntu系统的Spark伪分布式集群搭建全流程。以Spark 3.5.6 + Hadoop 3.3.5 + JDK 1.8组合为例,适用于Ubuntu 20.04/22.04系统:


详细步骤

1.安装Hadoop3.3.5(伪分布式)

Spark的安装过程较为简单,在已安装好 Hadoop 的前提下,经过简单配置即可使用。
如果你的系统没有安装Hadoop3.3.5(伪分布式),请访问Hadoop伪分布式集群搭建(Ubuntu系统),依照教程学习安装即可。

2.安装JAVA JDK

安装Hadoop3.3.5的过程就已经要求安装JAVA JDK1.8了。如果没有,请参考Hadoop伪分布式集群搭建(Ubuntu系统)进行安装配置。

3.下载安装Spark

首先需要下载Spark安装文件,访问Spark官网。

①使用FinalShell将Spark安装包上传至虚拟机目录:/home/hadoop/下载

解压Spark安装包至/usr/local目录下

sudo tar -zxvf /home/hadoop/下载/spark-3.5.6-bin-hadoop3.3.tgz -C /usr/local/ # 解压到/usr/local
cd /usr/local/    #切换至spark安装目录
sudo chown -R hadoop ./spark-3.5.6-bin-hadoop3.3   #修改spark安装目录权限给Hadoop用户

4.修改Spark伪分布式配置文件

进入解压后的Spark安装目录的/conf目录即“/usr/local/spark-3.5.6-bin-hadoop3/conf”,复制spark-env.sh.template文件并重命名为spark-env.sh,命令如下:

cd /usr/local/spark-3.5.6-bin-hadoop3/conf    #切换conf目录
cp spark-env.sh.template spark-env.sh         #重命名文件

打开spark-env.sh文件:

vim spark-env.sh

在spark-env.sh文件头部添加如下代码 :

#Jdk安装路径export JAVA_HOME=/usr/local/jdk1.8.0_161   #Hadoop安装路径export HADOOP_HOME=/usr/local/hadoop-3.3.5#Hadoop配置文件的路径                export HADOOP_CONF_DIR=/usr/local/hadoop-3.3.5/etc/hadoop    #Spark主节点的IP地址或机器名export SPARK_MASTER_IP=hadoop                                                            #Spark本地的IP地址或机器名export SPARK_LOCAL_IP=hadoop  

5.启动和关闭Spark集群

切换到spark安装目录的/sbin目录,启动spark集群,命令如下:

cd /usr/local/spark-3.5.6-bin-hadoop3/sbin
./star-all.sh

 通过jps命令查看进程,如果既有Maste进程又有Worker进程,则说明spark启动成功。

切换至spark安装目录的/bin目录下,使用SparkPi计算Pi的值,命令如下:

cd /usr/local/spark-3.5.6-bin-hadoop3/bin
./run-example SparkPi 2

 关闭集群,命令如下:

cd /usr/local/spark-3.5.6-bin-hadoop3
sbin/stop-all.sh

 

6.启动Spark Shell 

cd /usr/local/spark-3.5.6-bin-hadoop3/bin
./spark-shell

使用:quit可以退出spark shell

学习Spark程序开发,建议首先通过spark-shell交互式学习,加深Spark程序开发的理解。
Spark shell 提供了简单的方式来学习 API,也提供了交互的方式来分析数据。

http://www.dtcms.com/a/535699.html

相关文章:

  • 做游戏模型参考的网站保定网站建设制作开发平台
  • 【IoTDB】时序数据库选型迷茫?Apache IoTDB 为何成工业场景优选?
  • Linux系统编程—线程概念与控制
  • (122页PPT)华为初级项目管理培训(附下载方式)
  • GPT-OSS-20B昇腾NPU实战:从模型转换到42.85 tokens/s性能突破
  • 大模型请求/响应参数完全拆解:每个字段都是什么意思?
  • WIFI|硬件 Vanchip射频芯片 VC5776-11设计应用6
  • Java字符串深度解析:从内存模型到常用方法全掌握
  • 1688货源网官方网站专用车网站建设多少钱
  • 网站运营的目的及意义wordpress 颜色选择器
  • 【高阶数据结构】哈希表
  • 【Qt开发】容器类控件(二)-> QTabWidget
  • 模板进阶:从非类型参数到分离编译,吃透 C++ 泛型编程的核心逻辑
  • Springboot 局域网部署https解除安全警告
  • 封装map和set(红黑树作为底层结构如何实现map和set插入遍历)
  • 如何保证RabbitMQ不出现消息丢失?
  • 购物网站建设 属于信息系统管理与设计么?一个网站的制作特点
  • 如何快速进行时间序列模型复现(以LSTM进行股票预测为例)
  • Git 远程操作:克隆、推送、拉取与冲突解决
  • Telegram 被封是什么原因?如何解决?(附 @letstgbot 搜索引擎重连技巧)
  • uniapp(1)
  • 河北建站公司优化大师的功能有哪些
  • 电力电网安全实训难题多?VR安全教育软件给出新方案
  • [MySQL]表——聚合函数
  • Java 测验
  • d42:SpringCloud单架构拆分,Nacos注册中心,OpenFeign,网关路由,配置管理
  • 构建智能对话系统:基于LangChain的超级智能体架构解析
  • 幸福指数数据分析与预测:从数据预处理到模型构建完整案例
  • 做网站要费用多少wordpress注册美化
  • 城建亚泰建设集团网站手机网站建设教程视频教程