当前位置: 首页 > news >正文

Scala安装

Spark安装

Spark的Local模式仅需要单个虚拟机节点即可,无需启动hadoop集群。实验步骤如下:

  1. 将spark的安装包上传到虚拟机node01中(建议路径:/opt/software/spark)并解压缩文件。将解压文件夹重命名为spark-local

解压:tar -zxvf spark-3.0.0-bin-hadoop3.2.tgz

重命名:mv spark-3.0.0-bin-hadoop3.2.tgz spark-local

  1. 启动Local环境。进入spark-local中,执行如下命令:

bin/spark-shell

  1. 命令行工具

在解压缩文件夹下的 data 目录中,添加 word.txt 文件。

相关文章:

  • 业务流程管理系统有哪些优势?
  • 第7次:表单
  • 海康摄像头AI报警、移动侦测报警等通过Ehome/ISUP协议上报到LiveNVR流媒体平台时如何进行报警配置
  • JavaEE——线程的状态
  • uniapp大文件分包
  • python三大库之---pandas(二)
  • 正则表达式(一)
  • Spring Bean 生命周期简单代码说明
  • 实现腾讯云COS图片上传并确保可预览
  • haackmyvm-qweasd
  • 金融大模型
  • 射频前端从器件到模块简略
  • 【回眸】Linux 内核 (十三)进程间通讯 之 共享内存
  • QML Loader:加载组件与状态监控
  • ragflow开启https访问:ssl证书为pem文件,window如何添加证书
  • 电脑屏保壁纸怎么设置 桌面壁纸设置方法详解
  • PyTorch多GPU训练实战:从零实现到ResNet-18模型
  • ngx_cycle_modules
  • this指针 和 类的继承
  • Django异步执行任务django-background-tasks
  • 苏州网络推广公司哪家好/seo优化的优点
  • 创意网站建设/seo公司外包
  • WordPress清除ID沉余/邹平县seo网页优化外包
  • 校园网站建设的感受论文/百度网盘官网登陆入口
  • 做网站大流量/网站流量统计工具
  • 网站开发是什么/廊坊关键词排名首页