当前位置: 首页 > news >正文

【hadoop】Spark的安装部署

一、单机模式

步骤:

1、使用XFTP将Spark安装包spark-2.4.8-bin-hadoop2.7.tgz发送到master机器的主目录。

2、解压安装包:

tar -zxvf ~/spark-2.4.8-bin-hadoop2.7.tgz

3、修改文件夹的名字,将其改为flume,或者创建软连接也可:

mv ~/spark-2.4.8-bin-hadoop2.7 ~/spark

4、开箱即用;

二、Spark Standalone模式集群

步骤:

1、使用vim命令配置Spark的环境配置文件,原本应是不存在的:

cd ~/spark/confvim spark-env.sh

配置内容如下(注意此处的所有路径、主机名):

# jdk安装目录export JAVA_HOME=/home/hadoop/jdk1.8.0_311# Hadoop配置文件目录export HADOOP_CONF_DIR=/home/hadoop/hadoop-2.9.2/etc/hadoop# Hadoop根目录export HADOOP_HOME=/home/hadoop/hadoop-2.9.2# Web UI端口号SPARK_MASTER_WEBUI_PORT=8888# 配置ZooKeeperSPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=master:2181,slave1:2181,slave2:2181 -Dspark.deploy.zookeeper.dir=/myspark"

修改完后保存。

2、配置slaves:

vim slaves

添加以下内容:

masterslave1slave2

3、接着把配置好的Spark安装目录使用scp命令发送到其他节点:

scp -r ~/spark hadoop@slave1:~scp -r ~/spark hadoop@slave2:~

4、启动ZooKeeper,略;

5、在master节点上,带路径启动Spark集群:

~/spark/sbin/start-all.sh

测试

浏览器输入:master:8888,如下:

三、Spark on YARN模式

实际上,Spark on YARN模式,即把Spark应用程序跑在YARN集群之上,通过第二节配置好Spark Standalone模式后,已经可以在任意节点上,执行spark-submit脚本把任务提交至YARN实现Spark on YARN。而区别就是使用这种方式提交任务的话,就不需要启动Spark集群了。

相关文章:

  • 在Pycharm中如何安装Flask
  • WPF 常见坑:ContentControl 不绑定 Content 时,命令为何失效?
  • 计算机网络——Session、Cookie 和 Token
  • 2025年高防IP与SCDN全面对比:如何选择最佳防护方案?
  • 类和对象(4)--《Hello C++ Wrold!》(6)--(C/C++)--赋值运算符重载,取地址和const取地址操作符重载
  • 替代云数据库的本地方案:MySQL+phpMyAdmin的远程管理与跨网络访问技术
  • CSS3过渡
  • CSR矩阵 矩阵压缩
  • VSCode推出开源Github Copilot:AI编程新纪元
  • html主题切换小demo
  • VisionPro_连接相机
  • labview实现LED流水灯的第二种方法
  • 机器人坐标系标定
  • spring boot 实现resp视频推流
  • 数据结构:绪论之时间复杂度与空间复杂度
  • OceanBase数据库全面指南(函数篇)函数速查表
  • 基于cornerstone3D的dicom影像浏览器 第二十一章 显示DICOM TAGS
  • 先更新数据库,再删除缓存的cache aside策略
  • 性能测试、压力测试、负载测试如何区分
  • 工业 / 农业 / AR 场景怎么选?Stereolabs ZED 双目3D相机型号对比与选型建议
  • 网站制作哪家公司好/百度竞价排名模式
  • 如何做服装的微商城网站/无锡百度推广公司哪家好
  • 景区网站建设原则/百度号码认证申诉平台
  • 网站建设和编程/核心关键词如何优化
  • 政府网站开发要求/关键词搜索量查询工具
  • 宁波专业定制网站建设/浙江seo关键词