当前位置: 首页 > wzjs >正文

做网站有谁做东莞seo关键词排名优化排名

做网站有谁做,东莞seo关键词排名优化排名,做风能的网站,做推送的网站以下是使用 Spark Standalone 模式搭建集群的详细步骤: 1. 环境准备 1.1 集群规划 假设有 3 台服务器: 主节点 (Master):spark-master (192.168.1.100)工作节点 (Worker):spark-worker1 (192.168.1.101)、spark-worker2 (192.…

以下是使用 Spark Standalone 模式搭建集群的详细步骤:

1. 环境准备

1.1 集群规划

假设有 3 台服务器:

  • 主节点 (Master):spark-master (192.168.1.100)
  • 工作节点 (Worker):spark-worker1 (192.168.1.101)、spark-worker2 (192.168.1.102)
1.2 系统要求
  • 所有节点安装相同版本的 Java 8+(推荐 OpenJDK 11)
  • 所有节点安装 Python 3.6+(可选,用于 PySpark)
  • 关闭防火墙或开放以下端口:
    • Master:7077(集群通信)、8080(Web UI)
    • Worker:8081(Web UI)

2. 安装 Spark

2.1 下载 Spark

从 Apache Spark 官网 下载预编译版本(如 spark-3.3.2-bin-hadoop3):

bash

wget https://downloads.apache.org/spark/spark-3.3.2/spark-3.3.2-bin-hadoop3.tgz
tar -zxvf spark-3.3.2-bin-hadoop3.tgz
mv spark-3.3.2-bin-hadoop3 /opt/spark
2.2 配置环境变量

在所有节点的 ~/.bashrc 中添加:

bash

export SPARK_HOME=/opt/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

使环境变量生效:

bash

source ~/.bashrc

3. 配置 Spark Standalone

3.1 主节点配置

在 Master 节点 (spark-master) 上编辑以下文件:

3.1.1 spark-env.sh

复制模板并编辑:

bash

cd $SPARK_HOME/conf
cp spark-env.sh.template spark-env.sh

添加以下内容:

bash

export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64  # 根据实际路径修改
export SPARK_MASTER_HOST=192.168.1.100
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_MEMORY=2g  # 每个 Worker 可用内存
export SPARK_WORKER_CORES=2    # 每个 Worker 可用 CPU 核心数
3.1.2 workers

复制模板并编辑:

bash

cp workers.template workers

添加所有 Worker 节点的主机名或 IP:

plaintext

spark-worker1
spark-worker2
3.2 分发配置到 Worker 节点

将配置好的 Spark 目录复制到所有 Worker 节点:

bash

# 在 Master 节点执行
scp -r /opt/spark spark-worker1:/opt/
scp -r /opt/spark spark-worker2:/opt/

4. 启动集群

4.1 启动 Master 节点

在 spark-master 上执行:

bash

start-master.sh

验证 Master 启动成功:访问 http://192.168.1.100:8080,应看到 Spark Master 界面。

4.2 手动启动 Worker 节点(可选)

若自动启动失败,可在每个 Worker 节点手动启动:

bash

start-worker.sh spark://192.168.1.100:7077
4.3 验证集群状态

刷新 Master Web UI,应看到两个 Worker 节点已注册。

5. 提交 Spark 应用

使用 spark-submit 提交应用到集群:

bash

spark-submit \--master spark://192.168.1.100:7077 \--class org.apache.spark.examples.SparkPi \--executor-memory 1g \--total-executor-cores 2 \$SPARK_HOME/examples/jars/spark-examples_2.12-3.3.2.jar \100

6. 高级配置(可选)

6.1 动态分配资源

在 spark-defaults.conf 中启用:

bash

cp spark-defaults.conf.template spark-defaults.conf

添加:

properties

spark.dynamicAllocation.enabled true
spark.shuffle.service.enabled true
6.2 高可用性(HA)

配置 ZooKeeper 实现 Master 高可用:

bash

export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=zk1:2181,zk2:2181,zk3:2181 -Dspark.deploy.zookeeper.dir=/spark"

7. 常用命令

bash

# 停止集群
stop-all.sh# 启动历史服务器
start-history-server.sh# 查看日志
cd $SPARK_HOME/logs

8. 故障排查

  • Worker 无法连接 Master:检查防火墙、主机名解析和 spark-env.sh 配置。
  • 内存不足:调整 SPARK_WORKER_MEMORY 和 spark.executor.memory 参数。
  • Web UI 无法访问:确保端口开放且 Master/Worker 服务正常运行。
http://www.dtcms.com/wzjs/394157.html

相关文章:

  • 网站备案帐户有什么用百度seo如何快速排名
  • 黄冈个人网站建设平台谷歌推广开户
  • 做最优秀的自己演讲视频网站淘宝定向推广
  • 连州住房建设局网站完整html网页代码案例
  • 有哪些网站适合大学生做兼职天津网站策划
  • 开发网址需要多少钱seo网站优化公司
  • 引擎搜索网站免费网站谁有靠谱的
  • 网站怎么做必须交钱吗网站 seo
  • 酒店 手机网站模板外链购买交易平台
  • 体育新闻windows优化大师是系统软件吗
  • 新闻网站建设研究现状宁波seo深度优化平台
  • 我的家乡网页设计模板成都专业的整站优化
  • 模板生成网站竞价推广代运营企业
  • 两学一做专题网站介绍企业网络营销策划案例
  • 怎么将自己做的网站放到网上营销方案推广
  • 网站做数据分析的意义域名注册阿里云
  • 做网站中心建站快车
  • wordpress 工作室模板宁波seo关键词优化报价
  • 网站的优点网站推广优化业务
  • 网站开发私活活动策划
  • 营口市网站建设百度怎么注册公司网站
  • 做外贸服饰哪个个网站好怎么开网站平台挣钱
  • WordPress网络超时搜索引擎优化怎么做的
  • 做网站包括什么优化加速
  • 南京哪些公司做网站seo软件推广哪个好
  • 苏州网站制作新产品推广策划方案
  • 拉萨市建设厅官方网站中国网站排名
  • 蒙阴做网站下拉关键词排名
  • 韩国足球出线青岛seo用户体验
  • 长宁苏州网站建设东莞网站推广企业