当前位置: 首页 > wzjs >正文

网站没做好能不能备案现在什么网络推广好

网站没做好能不能备案,现在什么网络推广好,耒阳网站开发,含羞草m码和欧洲码的区别是什么环境准备 系统要求:Ubuntu 20.04/22.04 LTS 软件版本: Hadoop 3.3.5 JDK 8 Spark-3.5.6-bin-hadoop3 硬件要求:至少4GB内存,20GB磁盘空间 以下是基于Ubuntu系统的Spark伪分布式集群搭建全流程。以Spark 3.5.6 Hadoop 3.3.…
环境准备
  1. 系统要求:Ubuntu 20.04/22.04 LTS

  2. 软件版本

    • Hadoop 3.3.5

    • JDK 8

    • Spark-3.5.6-bin-hadoop3

  3. 硬件要求:至少4GB内存,20GB磁盘空间

以下是基于Ubuntu系统的Spark伪分布式集群搭建全流程。以Spark 3.5.6 + Hadoop 3.3.5 + JDK 1.8组合为例,适用于Ubuntu 20.04/22.04系统:


详细步骤

1.安装Hadoop3.3.5(伪分布式)

Spark的安装过程较为简单,在已安装好 Hadoop 的前提下,经过简单配置即可使用。
如果你的系统没有安装Hadoop3.3.5(伪分布式),请访问Hadoop伪分布式集群搭建(Ubuntu系统),依照教程学习安装即可。

2.安装JAVA JDK

安装Hadoop3.3.5的过程就已经要求安装JAVA JDK1.8了。如果没有,请参考Hadoop伪分布式集群搭建(Ubuntu系统)进行安装配置。

3.下载安装Spark

首先需要下载Spark安装文件,访问Spark官网。

①使用FinalShell将Spark安装包上传至虚拟机目录:/home/hadoop/下载

解压Spark安装包至/usr/local目录下

sudo tar -zxvf /home/hadoop/下载/spark-3.5.6-bin-hadoop3.3.tgz -C /usr/local/ # 解压到/usr/local
cd /usr/local/    #切换至spark安装目录
sudo chown -R hadoop ./spark-3.5.6-bin-hadoop3.3   #修改spark安装目录权限给Hadoop用户

4.修改Spark伪分布式配置文件

进入解压后的Spark安装目录的/conf目录即“/usr/local/spark-3.5.6-bin-hadoop3/conf”,复制spark-env.sh.template文件并重命名为spark-env.sh,命令如下:

cd /usr/local/spark-3.5.6-bin-hadoop3/conf    #切换conf目录
cp spark-env.sh.template spark-env.sh         #重命名文件

打开spark-env.sh文件:

vim spark-env.sh

在spark-env.sh文件头部添加如下代码 :

#Jdk安装路径export JAVA_HOME=/usr/local/jdk1.8.0_161   #Hadoop安装路径export HADOOP_HOME=/usr/local/hadoop-3.3.5#Hadoop配置文件的路径                export HADOOP_CONF_DIR=/usr/local/hadoop-3.3.5/etc/hadoop    #Spark主节点的IP地址或机器名export SPARK_MASTER_IP=hadoop                                                            #Spark本地的IP地址或机器名export SPARK_LOCAL_IP=hadoop  

5.启动和关闭Spark集群

切换到spark安装目录的/sbin目录,启动spark集群,命令如下:

cd /usr/local/spark-3.5.6-bin-hadoop3/sbin
./star-all.sh

 通过jps命令查看进程,如果既有Maste进程又有Worker进程,则说明spark启动成功。

切换至spark安装目录的/bin目录下,使用SparkPi计算Pi的值,命令如下:

cd /usr/local/spark-3.5.6-bin-hadoop3/bin
./run-example SparkPi 2

 关闭集群,命令如下:

cd /usr/local/spark-3.5.6-bin-hadoop3
sbin/stop-all.sh

 

6.启动Spark Shell 

cd /usr/local/spark-3.5.6-bin-hadoop3/bin
./spark-shell

使用:quit可以退出spark shell

学习Spark程序开发,建议首先通过spark-shell交互式学习,加深Spark程序开发的理解。
Spark shell 提供了简单的方式来学习 API,也提供了交互的方式来分析数据。

http://www.dtcms.com/wzjs/382212.html

相关文章:

  • 南京网站设计网站建设北京高端网站建设
  • 平面设计师看的网站百度seo排名优
  • 构站网软文代发平台
  • 朝阳区住房和城乡建设委员会网站小米的推广软文
  • 建设银行官方网站诚聘英才什么优化
  • 网站营销工具爱站长工具综合查询
  • 长春 行业网站新媒体营销案例
  • 宁波网站建设icp备怎么查权重查询
  • 营销企业网站建设步骤春哥seo博客
  • 学做网站多少钱友情链接交换平台免费
  • discuz 做论坛与网站北京seo推广公司
  • 怀化高速网站西安竞价托管公司
  • 怎么做类似站酷的网站郑州好的seo外包公司
  • blogcn wordpress云seo
  • 酒店网站建设项目怎么建网站教程
  • 社交网站开发用到的技术沈阳百度seo排名优化软件
  • 鑫路网站建设大学生创新创业大赛
  • 全市政府网站建设工作会议讲话广州seo实战培训
  • b2b和c2c网站营销模式对比研究网站广告接入
  • 网站建设的总体目标是什么全文搜索引擎有哪些
  • 北京做网站公司的排名沈阳seo代理计费
  • 最具口碑的企业网站建设上首页的seo关键词优化
  • asp网站源码说明百度长尾关键词挖掘工具
  • 如何进行网络营销服务创新百度关键词优化工具
  • 服务器网站备案北京sem
  • 大学网站开发专业怎么样网站模版
  • 做旅游销售网站平台ppt模板推特最新消息今天
  • vs2013 做网站搜索引擎最新排名
  • 蚌埠网站建设专业的公司江苏百度推广代理商
  • 创意设计公司网站个人怎么做互联网推广平台