当前位置: 首页 > news >正文

大数据-spark3.5安装部署之local模式

spark,一个数据处理框架和计算引擎。

下载

local模式即本地模式,就是不需要任何其他节点资源就可以在本地执行spark代码的环境。用于练习演示。

上传解压

使用PortX将文件上传至/opt

进入/opt目录,创建目录module,解压文件至/opt/module

进入module,并修改名称

配置jdk

启动spark前要安装jdk,上传jdk文件

解压

tar zxvf jdk-8u271-linux-x64.tar.gz

配置环境变量

以root用户配置环境变量

cd ~

保存后,以root用户,执行source .profle,使更改生效,并验证。

启动查看

进入spark-local,执行命令bin/spark-shell 启动spark,如下所示则成功启动

启动成功后,可以通过浏览器访问WebUI监控页面

http://ip:4040

交互操作

使用命令行或者提交作业的方式,与spark进行交互。

命令行

进入spark目录中的data文件夹,添加test.txt文件

vi test.txt

进入spark-standalone/bin目录,执行./spark-shell,启动命令行,执行以下内容

sc.textFile("../data/test.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect

退出Ctrl+c或者输入:quit后回车

提交应用

对于公司大数据的批量处理或周期性数据分析/处理任务,通常采用编写好的Spark程序,并通过Spark-submit指令的方式提交给Spark集群进行具体的任务计算。

bin/spark-submit \

--class org.apache.spark.examples.SparkPi \

--master local[2] \

./examples/jars/spark-examples_2.12-3.5.5.jar \

10

备注:路径等信息如下,示例代码都位于spark目录中。

相关文章:

  • ubuntu24.04-qt5-mysql8.0
  • 【网工第6版】第1章 计算机网络概论
  • mac安装navicat及使用
  • CentOS 7 系统上安装 SQLite
  • LDR6500在Type-C转DP视频双向互传方案
  • RAW图与BAYER图异同
  • LinuX---Shell---read命令
  • 02 windows qt配置ffmpeg开发环境搭建
  • Leetcode3340:检查平衡字符串
  • 实验5 逻辑回归
  • C语言基础笔记整理(附代码示例)
  • React开发指南:核心、实践与案例
  • Spring Cloud Eureka - 高可用服务注册与发现解决方案
  • 青梧字幕:AI驱动的视频字幕提取与翻译工具
  • std::span
  • 思维训练让你更高、更强 |【逻辑思维能力】「刷题训练笔记」假设法模式逻辑训练题(1-5)
  • SEO效果归因模型:多触点转化路径的马尔可夫链分析
  • 湿大气校正效应
  • 《DeepSeek 开源 DeepGEMM:开启AI计算新时代的密钥》:此文为AI自动生成
  • Redis面试篇
  • 竞彩湃|足总杯决赛或有冷门,德甲欧冠资格之争谁笑到最后
  • 公示资费套餐、规范营销行为,今年信息通信行业将办好这十件实事
  • 陕西省市监局通报5批次不合格食品,涉添加剂超标、微生物污染等问题
  • 大环线呼之欲出,“金三角”跑起来了
  • 《大风杀》导演张琪:为了不算计观众,拍了部不讨好的警匪片
  • “老中青少”四代同堂,季春艳携锡剧《玲珑女》冲击梅花奖