当前位置: 首页 > wzjs >正文

南京网站排名外包百度优化

南京网站排名外包,百度优化,长沙优化科技有限公司电话,怎么制作小视频Spark 单机模式安装步骤 Spark 安装 上传安装包:将下载好的 Spark 安装包(如 spark-3.3.0-bin-hadoop3.tgz)通过 FTP 工具或 scp 命令上传至 Linux 服务器的指定目录,例如/opt/software。 解压安装包:使用tar -zxvf …

Spark 单机模式安装步骤

Spark 安装

  1. 上传安装包:将下载好的 Spark 安装包(如 spark-3.3.0-bin-hadoop3.tgz)通过 FTP 工具或 scp 命令上传至 Linux 服务器的指定目录,例如/opt/software

  2. 解压安装包:使用tar -zxvf spark-3.3.0-bin-hadoop3.tgz -C /opt/installs/命令将安装包解压到/opt/installs目录。

  3. 重命名:为了方便后续操作,将解压后的文件夹重命名,执行mv /opt/installs/spark-3.3.0-bin-hadoop3 /opt/installs/spark

  4. 创建软链接:通过ln -s /opt/installs/spark /opt/spark创建软链接,简化路径访问。

  5. 配置环境变量:编辑/etc/profile文件,添加如下内容:

    export SPARK_HOME=/opt/spark
    export PATH=$PATH:$SPARK_HOME/bin
    
     

    保存后执行source /etc/profile刷新环境变量。

Anaconda 安装(Python 环境)

Anaconda 不仅包含 Python,还具备资源环境隔离功能,方便不同版本环境的测试开发,是 Spark 的理想 Python 环境。

  1. 下载与上传:从Anaconda 官网 archive 页面下载合适版本(如 Anaconda3-2022.10-Linux-x86_64.sh),上传至服务器/opt/software目录。

  2. 安装 Anaconda:执行bash /opt/software/Anaconda3-2022.10-Linux-x86_64.sh,按照提示完成安装,建议安装在/opt/installs/anaconda3目录。

  3. 环境变量配置:编辑/etc/profile,添加:

    export ANACONDA_HOME=/opt/installs/anaconda3
    export PATH=$PATH:$ANACONDA_HOME/bin
    
     

    执行source /etc/profile刷新,再通过ln -s /opt/installs/anaconda3/bin/python3 /usr/bin/python3创建软链接,确保python3命令可用。

  4. 环境管理命令

    • 进入环境:conda activate 环境名
    • 退出环境:conda deactivate

Spark 测试使用

Spark Python Shell 是交互式学习工具,通过pyspark命令启动,可实时编写代码并查看结果。

案例一:map 算子实现分布式转换

需求:将 1~10 的列表中每个元素平方后输出。

在 Spark Python Shell 中执行:

# 创建包含1~10的RDD
rdd = sc.parallelize(range(1, 11))
# 使用map算子计算平方
square_rdd = rdd.map(lambda x: x * x)
# 输出结果
square_rdd.collect()

执行后将得到[1, 4, 9, 16, 25, 36, 49, 64, 81, 100],展示了 Spark 分布式处理元素的能力。

案例二:WordCount 词频统计

/home/data.txt为数据源,统计每个单词出现的次数,步骤如下:

  1. 读取数据

    fileRdd = sc.textFile("/home/data.txt")
    print("总行数:", fileRdd.count())
    print("前3行:", fileRdd.take(3))
    
  2. 过滤空行

    filterRdd = fileRdd.filter(lambda line: len(line.strip()) > 0)
    print("过滤后行数:", filterRdd.count())
    
  3. 拆分单词

    wordRdd = filterRdd.flatMap(lambda line: line.strip().split(" "))
    print("单词总数:", wordRdd.count())
    
  4. 生成键值对

    tupleRdd = wordRdd.map(lambda word: (word, 1))
    
  5. 聚合统计

    rsRdd = tupleRdd.reduceByKey(lambda tmp, item: tmp + item)
    
  6. 结果输出与保存

    # 打印结果
    rsRdd.foreach(lambda kv: print(kv))
    # 保存到本地
    rsRdd.saveAsTextFile("/home/wcoutput")
    

案例三:计算 PI 值

通过 Spark 提交脚本计算圆周率,执行:

/opt/installs/spark/bin/spark-submit --master local[2] /opt/installs/spark/examples/src/main/python/pi.py 100

其中--master local[2]指定使用 2 个核心,100是采样次数,结果会接近 3.14。

http://www.dtcms.com/wzjs/475437.html

相关文章:

  • 撰写网站建设技术解决方案上海网站营销推广
  • 站长之家模板谷歌seo推广服务
  • 唐山建设局网站北京seo平台
  • 自己有服务器怎么搭建网站百度云官网
  • 用户体验设计流程西安seo网站管理
  • 一整套室内设计方案ppt镇江seo公司
  • 网站建设软件用乐云践新seo是什么东西
  • 网站建设公司的业务规划百度搜索风云榜游戏
  • 荆州网站建设百度问答seo
  • 贵州省遵义市红花岗区疫情最新消息seo运营是做什么的
  • 免费3d模型素材网站口碑营销案例
  • 大连开发区网站开发公司电话seo基础知识
  • 影视公司网站设计百度下载安装app
  • 懂得做网站还可以做什么兼职兰州网络推广电话
  • 做淘宝客网站域名是别人的电子商务专业就业方向
  • 鞍山网站建设联系方式百度网盘下载慢
  • 广州市疫情最新消息网站seo综合诊断
  • 税务编码 做网站选什么唐山seo快速排名
  • 网站目录访问百度搜索量最大的关键词
  • 石家庄网站建设推广公司电话软文营销的成功案例
  • 网站建设方案推荐十大基本营销方式
  • 安陆市建设局网站怎么自己做网站推广
  • 做网络课堂的平台有哪些网站宁波seo教程
  • 西安专业做网站建跨境电商seo是什么意思
  • 如何做网站公众号推广谷歌浏览器下载安装
  • iis7网站建设上海广告公司排名
  • wordpress家居主题seo诊断工具有哪些
  • 网站建设合作协议模板微信软文范例大全100
  • 婚介网站建设青岛网站建设公司
  • cad协同设计平台网站seo诊断技巧