当前位置: 首页 > wzjs >正文

网站的建设与预算网站seo优化技巧

网站的建设与预算,网站seo优化技巧,网站建设与排名,本地做网站顺序实验目标: 本节课实验将完成Spark 4种部署模式的另外2种,分别是Yarn、windows模式。 实验准备工作: 三台linux虚拟机spark的压缩包 实验步骤 Spark-yarn 1. 解压缩文件,并重命名为spark-yarn。 tar zxvf spark-3.0.0-bin-…
  • 实验目标:

本节课实验将完成Spark 4种部署模式的另外2种,分别是Yarn、windows模式。

  • 实验准备工作:
  1. 三台linux虚拟机
  2. spark的压缩包

  • 实验步骤
Spark-yarn

1. 解压缩文件,并重命名为spark-yarn。

tar zxvf spark-3.0.0-bin-hadoop3.2.tgz

mv spark-3.0.0-bin-hadoop3.2 spark-yarn

2. 修改配置文件

(1)修改hadoop配置文件/opt/software/hadoop/hadoop-2.9.2/etc/hadoop/yarn-site.xml,并分发给其他节点。

①修改配置文件:

是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出分配值,则直接将其杀掉,默认是 true

<property>

<name>yarn.nodemanager.vmem-check-enabled</name>

<value>false</value>

</property>

是否启动一个线程检查每个任务正使用的物理内存量,如果任务超出分配值,则直接将其杀掉,默认是 true

<property>

  <name>yarn.nodemanager.pmem-check-enabled</name>

  <value>false</value>

</property>

②分发给其他节点:

(2)返回到spark-yarn目录,修改conf/spark-env.sh,添加 JAVA_HOME 和 YARN_CONF_DIR 配置。

mv spark-env.sh.template spark-env.sh

vi spark-env.sh

(3)启动HDFS以及Yarn集群

(4)提交测试应用

bin/spark-submit \

--class org.apache.spark.examples.SparkPi \

--master yarn \

--deploy-mode cluster \

./examples/jars/spark-examples_2.12-3.0.0.jar \

10

查看node01:8088页面

配置历史服务

由于 spark-shell 停止掉后,集群监控 node01:4040 页面就看不到历史任务的运行情况,所以 开发时都配置历史服务器记录任务运行情况。

1. 修改 spark-defaults.conf.template 文件名为 spark-defaults.conf

mv spark-defaults.conf.template spark-defaults.conf

2. 修改 spark-default.conf 文件,配置日志存储路径

注意:需要启动 hadoop 集群,HDFS 上的 directory 目录需要提前存在。

hdfs dfs -mkdir /directory

3. 修改 spark-env.sh 文件, 添加日志配置

export SPARK_HISTORY_OPTS="

-Dspark.history.ui.port=18080

-Dspark.history.fs.logDirectory=hdfs://node01:9000/directory

-Dspark.history.retainedApplications=30"

参数含义:

⚫ 参数 1 含义:WEB UI 访问的端口号为 18080

⚫ 参数 2 含义:指定历史服务器日志存储路径

⚫ 参数 3 含义:指定保存 Application 历史记录的个数,如果超过这个值,旧的应用程序信息将被删除,这个是内存中的应用数,而不是页面上显示的应用数。

4. 开启历史服务,并且重新提交应用

sbin/start-history-server.sh

bin/spark-submit \

--class org.apache.spark.examples.SparkPi \

--master yarn \

--deploy-mode cluster \

./examples/jars/spark-examples_2.12-3.0.0.jar \

10

Windows模式

1. 将文件 spark-3.0.0-bin-hadoop3.2.tgz 解压缩到无中文无空格的路径中。

2. 启动本地环境

执行解压缩文件路径下 bin 目录中的 spark-shell.cmd 文件,启动 Spark 本地环境

在命令行工具中执行如下代码指令。

sc.textFile("data/word.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect

 

http://www.dtcms.com/wzjs/238251.html

相关文章:

  • 好公司网站建设价格百度seo优化关键词
  • wordpress 停用多站点销售网络平台推广
  • 在成都如何找到做网站的公司网络推广公司哪家做得好
  • 昆明小程序公司seo在线教学
  • 网站建设中主页指的是故事式软文范例500字
  • 外贸公司网站建设方案百度竞价推广开户多少钱
  • 网站后台多个管理员营销策划公司简介
  • 东莞网站制作公司下载百度极速版免费安装
  • 在服务器网站上做跳转页面跳转免费网站推广
  • 做citation的网站网站建设策划书案例
  • 织梦做网站视频教程网站外链优化方法
  • 美国一个分享怎么做的网站叫什么网页制作的基本步骤
  • 在c盘做网站可以吗企业网站推广优化公司
  • 用模板建商城购物网站深圳抖音seo
  • 网上商城网站建设规划微信软文范例100字
  • 上海住房和城乡建设局网站首页中国免费网站服务器下载
  • 网站导航的分类有哪些杭州网站设计公司
  • 深圳专业做网站哪家好全渠道营销管理平台
  • 公司网站友情链接怎么做副链seo软件推荐
  • 租房网站建设多少钱百度搜索风云榜人物
  • 凡客诚品倒闭了吗武汉seo建站
  • 中英文网站制作美食软文300字
  • 北碚网站建设公司品牌设计公司
  • 成都网站建设市场凌云seo博客
  • 郑州的建设网站有哪些月嫂免费政府培训中心
  • 环艺毕业设计代做网站国家卫健委每日疫情报告
  • 一级做a爱网站免费企业门户网站的设计与实现
  • 网络营销从网站建设开始软文吧
  • 自建网站做网上超市可行吗全国疫情最新消息今天实时
  • 大良营销网站建设服务网络营销中心