当前位置: 首页 > wzjs >正文

做问卷调查有哪些网站b2b有哪些电商平台

做问卷调查有哪些网站,b2b有哪些电商平台,学校机构网站建设内容,河南网站建设公1.把spark安装包复制到你存放安装包的目录下,例如我的是/opt/software cd /opt/software,进入到你存放安装包的目录 然后tar -zxvf 你的spark安装包的完整名字 -C /opt/module,进行解压。例如我的spark完整名字是spark-3.1.1-bin-hadoop3.2.…

1.把spark安装包复制到你存放安装包的目录下,例如我的是/opt/software

 cd /opt/software,进入到你存放安装包的目录

然后tar -zxvf 你的spark安装包的完整名字 -C /opt/module,进行解压。例如我的spark完整名字是spark-3.1.1-bin-hadoop3.2.tgz,所以我要输入的命令是 

tar -zxvf spark-3.1.1-bin-hadoop3.2.tgz -C /opt/module

 

 2.配置spark的环境变量

进入到/etc/profile.d目录下

自己新建一个存放修改spark环境变量的文件,例如我的是my_env.sh,在里面添加配置的内容

 添加以下内容

# spark 环境变量
export SPARK_HOME=/opt/module/spark-yarn
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

 保存修改,回到输入命令界面,输入source /etc/profile,重新刷新环境变量,让修改的环境变量生效。

在输入 echo $PATH回车,出现spark-local/bin:/opt/module/spark-local/sbin说明我们已经配置好spark的环境变

 

 

同步给其他的设备: xsync  /etc/profile.d/

3.修改hadoop的配置。/opt/module/hadoop-3.1.3/etc/hadoop/yarn-site.xml。因为测试环境虚拟机内存较少,防止执行过程进行被意外杀死,添加如下配置。

<!--是否启动一个线程检查每个任务正使用的物理内存量,如果任务超出分配值,则直接将其杀掉,默认是true -->

<property>

     <name>yarn.nodemanager.pmem-check-enabled</name>

     <value>false</value>

</property>

<!--是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出分配值,则直接将其杀掉,默认是true -->

<property>

     <name>yarn.nodemanager.vmem-check-enabled</name>

     <value>false</value>

</property>

把这个设置分发到其他节点。使用xsync /opt/module/hadoop-3.1.3/etc/hadoop/同步一下。

 

 

4.修改spark配置。 把三个文件的名字重新设置一下。

workers.tempalte 改成 workers,spark-env.sh.template 改成 spark-env.sh,

spark-defaults.conf.template 改成 spark-defaults.conf。

然后,在workers文件中添加

hadoop100

hadoop101
hadoop102

在spark-env.sh文件中,添加如下

SPARK_MASTER_HOST=hadoop100

SPARK_MASTER_PORT=7077

HADOOP_CONF_DIR=/opt/module/hadoop-3.1.3/etc/hadoop

YARN_CONF_DIR=/opt/module/hadoop-3.1.3/etc/hadoop
export SPARK_HISTORY_OPTS="-Dspark.history.fs.logDirectory=hdfs://hadoop100:8020/directory"

在spark-defaults.conf文件中,添加如下

spark.eventLog.enabled true
spark.eventLog.dir hdfs://hadoop100:8020/directory
spark.yarn.historyServer.address=hadoop100:18080
spark.history.ui.port=18080

5.同步配置文件到其他设备。xsync /opt/module/spark-yarn/sbin

启动集群

注意这里要同时启动hadoop和spark。

1.启动hdfs和yarn。使用我们之前配置的脚本:myhadoop start

2. 启动spark和spark的历史服务器。进入/opt/module/spart-yarn/sbin,运行: ./start-all.sh 和 ./start-history-server.sh

并通过jps去检查是否有对应的进程。

提交任务到集群

使用spark-submit提交任务

spark-submit --class org.apache.spark.examples.SparkPi --master yarn --deploy-mode cluster  /opt/module/spark-standalone/examples/jars/spark-examples_2.12-3.1.1.jar 10

 

查看运行结果

1. 在yarn任务面板页面中可以看到任务的信息。http://hadoop101:8088/cluster

如果可以看任务信息,说明任务运行成功!

http://www.dtcms.com/wzjs/267470.html

相关文章:

  • 江苏恒健建设集团有限公司网站阿里云万网域名购买
  • 一级a做爰片免费网站体验区如何进行网站推广
  • 南通网站建设空间站长友情链接平台
  • 做网站业务的 怎么跑客户百度教育官网登录入口
  • 上海网站制作公司联系方式网站排名软件包年
  • wordpress 获取链接地址南京百度seo公司
  • 企业可以备案几个网站seo搜索引擎优化报价
  • 中山外贸网站开发价格网页设计软件dreamweaver
  • 新疆建设职业培训中心网站nba西部排名
  • 做网站用到其他网站的素材是侵权吗seo营销技巧
  • 网站汉英结合的怎么做惠州seo网站推广
  • 腾讯企业邮箱注册申请免费常宁seo外包
  • 租房子网站怎么做ip网站查询服务器
  • 网站建设培训学院百度手机网页版入口
  • 想开发一个app需要多少钱网站seo检测工具
  • 深圳住房建设部官方网站推广效果最好的平台
  • 检察院网站建设标书app怎么开发出来的
  • java做网站的优势推广代理公司
  • 机关网站建设管理工作自查报告郑州seo网站管理
  • 重庆观音桥网站建设免费推广软件下载
  • 外贸电商网站制作天津seo排名
  • 建设网站要用什么软件什么平台可以打广告做宣传
  • 网站备注销搜索推广是什么意思
  • 全球疫情最新数据统计表常州百度搜索优化
  • 驻马店app和网站开发公司网站收录怎么弄
  • 空滤网站怎么做千锋教育培训多少钱
  • 网站页面设计好了后台如何添加淘宝运营一般要学多久
  • 设计网站下载企业管理培训班哪个好
  • 重庆的网站建设正规微商免费推广软件
  • 网站建设需要什么资料优化游戏性能的软件