当前位置: 首页 > wzjs >正文

家里笔记本做网站 怎么解析北京百度推广代运营

家里笔记本做网站 怎么解析,北京百度推广代运营,做湲兔费网站视颍,wordpress swf插件Spark 4种部署模式的另外2种,分别是Yarn、windows模式。 二、 实验准备工作: 1. 三台linux虚拟机 2. spark的压缩包 三、 实验步骤 Spark-yarn 1. 解压缩文件,并重命名为spark-yarn。 tar zxvf spark-3.0.0-bin-hadoop3.2.tgz mv spar…

Spark 4种部署模式的另外2种,分别是Yarn、windows模式。

二、 实验准备工作:

1. 三台linux虚拟机

2. spark的压缩包

 

三、 实验步骤

Spark-yarn

1. 解压缩文件,并重命名为spark-yarn。

tar zxvf spark-3.0.0-bin-hadoop3.2.tgz

mv spark-3.0.0-bin-hadoop3.2 spark-yarn

 

2. 修改配置文件

1) 修改hadoop配置文件/opt/software/hadoop/hadoop-2.9.2/etc/hadoop/yarn-site.xml,并分发给其他节点。

是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出分配值,则直接将其杀掉,默认是 true

<property> 

​​<name>yarn.nodemanager.vmem-check-enabled</name> 

​​<value>false</value> 

​</property>

是否启动一个线程检查每个任务正使用的物理内存量,如果任务超出分配值,则直接将其杀掉,默认是 true

<property>

​​<name>yarn.nodemanager.pmem-check-enabled</name> 

​​<value>false</value> 

​</property>

2) 返回到spark-yarn目录,修改conf/spark-env.sh,添加 JAVA_HOME 和 YARN_CONF_DIR 配置。

mv spark-env.sh.template spark-env.sh

vi spark-env.sh

 

 

3) 启动HDFS以及Yarn集群

4) 提交测试应用

bin/spark-submit \

--class org.apache.spark.examples.SparkPi \

--master yarn \

--deploy-mode cluster \

./examples/jars/spark-examples_2.12-3.0.0.jar \

10

 

查看node01:8088页面

 

 

配置历史服务

由于 spark-shell 停止掉后,集群监控 node01:4040 页面就看不到历史任务的运行情况,所以 开发时都配置历史服务器记录任务运行情况。

1) 修改 spark-defaults.conf.template 文件名为 spark-defaults.conf

mv spark-defaults.conf.template spark-defaults.conf

2) 修改 spark-default.conf 文件,配置日志存储路径

 

注意:需要启动 hadoop 集群,HDFS 上的 directory 目录需要提前存在。

hdfs dfs -mkdir /directory

3) 修改 spark-env.sh 文件, 添加日志配置

export SPARK_HISTORY_OPTS="

-Dspark.history.ui.port=18080 

-Dspark.history.fs.logDirectory=hdfs://node01:9000/directory

-Dspark.history.retainedApplications=30"

 

 

参数含义:

⚫ 参数 1 含义:WEB UI 访问的端口号为 18080

⚫ 参数 2 含义:指定历史服务器日志存储路径

⚫ 参数 3 含义:指定保存 Application 历史记录的个数,如果超过这个值,旧的应用程序信息将被删除,这个是内存中的应用数,而不是页面上显示的应用数。

4) 开启历史服务,并且重新提交应用

sbin/start-history-server.sh

bin/spark-submit \

--class org.apache.spark.examples.SparkPi \

--master yarn \

--deploy-mode cluster \

./examples/jars/spark-examples_2.12-3.0.0.jar \

10

 

 

Windows模式

1) 将文件 spark-3.0.0-bin-hadoop3.2.tgz 解压缩到无中文无空格的路径中。

 

 

2) 启动本地环境

执行解压缩文件路径下 bin 目录中的 spark-shell.cmd 文件,启动 Spark 本地环境

 

 

在命令行工具中执行如下代码指令。

sc.textFile("data/word.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect

 

http://www.dtcms.com/wzjs/72084.html

相关文章:

  • 政府网站建设考核 邵阳种子搜索引擎 磁力天堂
  • 大淘客网站logo怎么做百度打开百度搜索
  • 一家专做中式设计的网站推广电话
  • 提供手机网站制作公司谷歌账号
  • 备案平台新增网站宁波seo网络推广选哪家
  • 宁乡电商网站建设收费营业推广策略有哪些
  • 洪梅镇做网站互联网营销师是做什么的
  • 网站banner内容西安网站推广助理
  • 笑话网站程序济南网络推广网络营销
  • 爱建站小程序功能介绍百度竞价规则
  • 做网站销售水果北京网站优化方式
  • 380元网站建设西安seo排名公司
  • 国内销售平台有哪些seo诊断服务
  • 电子商务网站架构重庆seo团队
  • 苏州网站设计公司优化公司排行榜
  • 进出口贸易网镇江百度关键词优化
  • 短视频营销的优势有哪些seo独立站优化
  • 做网站要执照吗如何做好网络营销?
  • 栾川住房和城乡建设委员会网站杭州10大软件开发公司
  • 风铃网站代做最新百度新闻
  • 郑州大学网页设计与网站建设新闻 近期大事件
  • 公司网站怎么更新需要怎么做seo标签优化方法
  • 北京网站建设公司怎么排版刘连康seo培训哪家强
  • 临沂网站建设培训app如何推广
  • 品牌网站建设公司哪家好免费视频外链生成推荐
  • PS做游戏网站需要做几个网页北京seo优化哪家好
  • 中国标准溶液网站建设青岛专业网站制作
  • wordpress 窗口网站如何做优化排名
  • 顺德企业手机网站建设传播易广告投放平台
  • 做外汇看的国外网站软文推广哪个平台好