当前位置: 首页 > wzjs >正文

设计网站设计目标深圳宝安股票

设计网站设计目标,深圳宝安股票,seo经理招聘,做网站开票是多少个点的票文章目录 1、免密登录2、安装hadoop3、Spark配置 具体详细报告见资源部分,全部实验内容已经上传,如有需要请自行下载。 1、免密登录 使用的配置命令: cd ~/.ssh/ssh-keygen -t rsaEnter键回车y回车回车出现如上所示 cat ./id_rsa.pub >…

文章目录

    • 1、免密登录
    • 2、安装hadoop
    • 3、Spark配置

具体详细报告见资源部分,全部实验内容已经上传,如有需要请自行下载。

1、免密登录

使用的配置命令:

cd ~/.ssh/
ssh-keygen -t rsa
Enter键回车
y
回车
回车

在这里插入图片描述
出现如上所示

cat ./id_rsa.pub >> ./authorized_keys
ssh hadoop01

在这里插入图片描述

exit
scp /root/.ssh/id_rsa.pub root@hadoop02:/root/.ssh/id_rsa.pub

然后输入hadoop02的密码,去复制就行

scp /root/.ssh/id_rsa.pub root@hadoop03:/root/.ssh/id_rsa.pub

然后输入hadoop03的密码,去复制就行

在这里插入图片描述
显示图示这样的,重启就行了。

全部重启一下,从开头输入一下命令,验证:ssh hadoop02

ssh hadoop03

不需要密码,则已经成功,退出:exit

2、安装hadoop

java -version

显示如下:

在这里插入图片描述

nano ~/.bashrc

在文本的最后加入:

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
export PATH=$PATH:$JAVA_HOME/bin

然后保存退出:Ctrl+X,然后输入Y,回车即可

让配置生效:

source ~/.bashrc

验证JAVA_HOME 配置是否成功:

echo $JAVA_HOME

在这里插入图片描述

如上所示JAVA_HOME 已经配置成功

cd /usr/local
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.5/hadoop-3.3.5.tar.gz

在这里插入图片描述
在这里插入图片描述

解压:tar -xzvf hadoop-3.3.5.tar.gz
重命名:mv hadoop-3.3.5 /usr/local/hadoop
修改文件权限:chown -R root:root ./hadoop
ls -1 hadoop/

在这里插入图片描述
配置 Hadoop 环境变量:

nano ~/.bashrc

在最下面加入:

export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

保存退出:Ctrl+X,Y,回车

source ~/.bashrc

在这里插入图片描述
检查Hadoop命令是否可用:

cd /usr/local/hadoop
./bin/hadoop version

在这里插入图片描述
配置集群/分布式环境:

修改文件profile:

cd /usr/local/hadoop/etc/hadoop
nano /etc/profile

加入如下内容:

# Hadoop Service Users
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root

在这里插入图片描述

source /etc/profile

修改文件workers:

nano workers
hadoop01
hadoop02
hadoop03

在这里插入图片描述
保存退出:Ctrl+X,Y,回车

修改文件core-site.xml:

nano core-site.xml

添加如下配置:

<configuration><property><name>fs.defaultFS</name><value>hdfs://hadoop01:9000</value></property><property><name>hadoop.tmp.dir</name><value>file:/usr/local/hadoop/tmp</value><description>Abase for other temporary directories.</description></property>
</configuration>

在这里插入图片描述

修改文件hdfs-site.xml:

nano hdfs-site.xml

添加如下内容:

<configuration><property><name>dfs.namenode.secondary.http-address</name><value>hadoop03:50090</value></property><property><name>dfs.replication</name><value>3</value></property><property><name>dfs.namenode.name.dir</name><value>file:/usr/local/hadoop/tmp/dfs/name</value></property><property><name>dfs.datanode.data.dir</name><value>file:/usr/local/hadoop/tmp/dfs/data</value></property>
</configuration>

在这里插入图片描述
修改文件mapred-site.xml:

nano mapred-site.xml
<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property><property><name>mapreduce.jobhistory.address</name><value>hadoop01:10020</value></property><property><name>mapreduce.jobhistory.webapp.address</name><value>hadoop01:19888</value></property><property><name>yarn.app.mapreduce.am.env</name><value>HADOOP_MAPRED_HOME=/usr/local/hadoop</value></property><property><name>mapreduce.map.env</name><value>HADOOP_MAPRED_HOME=/usr/local/hadoop</value></property><property><name>mapreduce.reduce.env</name><value>HADOOP_MAPRED_HOME=/usr/local/hadoop</value></property>
</configuration>

保存退出:Ctrl+X,Y,回车

修改文件 yarn-site.xml:

nano yarn-site.xml
<configuration><!-- Site specific YARN configuration properties --><property><name>yarn.resourcemanager.hostname</name><value>hadoop01</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property>
</configuration>

保存退出:Ctrl+X,Y,回车

修改文件hadoop-env.sh:

nano hadoop-env.sh
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

保存退出:Ctrl+X,Y,回车

复制hadoop01节点的Hadoop文件夹,分发:

cd /usr/local
tar -zcf ~/hadoop.master.tar.gz ./hadoop
cd ~
scp ./hadoop.master.tar.gz hadoop02:/root
scp ./hadoop.master.tar.gz hadoop03:/root

在这里插入图片描述
在02中:

tar -zxf ~/hadoop.master.tar.gz -C /usr/local
chown -R root /usr/local/hadoop

在这里插入图片描述
在hadoop03中:

tar -zxf ~/hadoop.master.tar.gz -C /usr/local
chown -R root /usr/local/hadoop

在这里插入图片描述
在hadoop01中:

cd /usr/local/hadoop
./bin/hdfs namenode -format

启动hadoop:

cd /usr/local/hadoop
./sbin/start-dfs.sh

在这里插入图片描述

./sbin/start-yarn.sh

在这里插入图片描述

./sbin/mr-jobhistory-daemon.sh start historyserver
jps

在这里插入图片描述
在hadoop02:jps

在这里插入图片描述
在hadoop03:jps

在这里插入图片描述
回hadoop01:

./bin/hdfs dfsadmin -report

在这里插入图片描述

stop-yarn.sh

在这里插入图片描述

stop-dfs.sh

在这里插入图片描述

mr-jobhistory-daemon.sh stop historyserver

成功结束Hadoop相关配置。

3、Spark配置

将spark解压到/usr/local中:

tar -zxf /root/spark-3.4.2-bin-without-hadoop.tgz -C /usr/local
cd /usr/local
mv ./spark-3.4.2-bin-without-hadoop ./spark
chown -R root ./spark

(2)配置相关文件:

修改spark-env.sh文件:

cd /usr/local/spark
cp ./conf/spark-env.sh.template ./conf/spark-env.sh
nano ./conf/spark-env.sh
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

在这里插入图片描述
Ctrl+X,Y,回车

发现不对,往回找,然后一个里面内容不对,修改.bashrc文件:

nano ~/.bashrc
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
export PATH=$PATH:$JAVA_HOME/binexport PATH=$PATH:/usr/local/hadoop/bin:/usr/local/hadoop/sbin
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbinexport SPARK_HOME=/usr/local/spark
export JRE_HOME=${JAVA_HOME}jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export PATH=$PATH:${JAVA_HOME}/bin:$HADOOP_HOME/bin:$SPARK_HOME/bin
export PYSPARK_PYTHON=/root/anaconda3/bin/python

Ctrl+X,Y,回车

source ~/.bashrc

(3)设置日志信息:

cd /usr/local/spark/conf
sudo mv log4j2.properties.template log4j.properties
vim log4j.properties

按i进入编辑模式

将里面的rootLogger.level改成=error

在这里插入图片描述
先ESC退出编辑模式,然后保存并退出:在命令模式下输入 :wq,然后按 Enter。

验证Spark是否安装成功:

cd /usr/local/spark
./bin/run-example SparkPi

在这里插入图片描述
使用Anaconda修改Python版本:

conda create -n pyspark python=3.8
y

在这里插入图片描述
切换python环境:

conda activate pyspark

在这里插入图片描述
启动pyspark:

cd /usr/local/spark
./bin/pyspark

在这里插入图片描述
安装 Spark(Spark on YARN模式):

cd /usr/local/spark
./bin/pyspark --master yarn

成功结束!


文章转载自:

http://BAVbNrjy.gxtfk.cn
http://gvNsS5Lr.gxtfk.cn
http://Hz0kkZ3Y.gxtfk.cn
http://ZW0ULH8X.gxtfk.cn
http://6U0Hqsh8.gxtfk.cn
http://83Kvkfr6.gxtfk.cn
http://jZnfCYNG.gxtfk.cn
http://CzqCE2ZA.gxtfk.cn
http://hZqxNn9F.gxtfk.cn
http://pSKoGCuX.gxtfk.cn
http://RAe7Aj9Z.gxtfk.cn
http://AGVfLb7e.gxtfk.cn
http://V0XTqweF.gxtfk.cn
http://z7Twdsd0.gxtfk.cn
http://YqIgWXaO.gxtfk.cn
http://SE0kWaSn.gxtfk.cn
http://2pG4Hdmc.gxtfk.cn
http://G1ZbcQx7.gxtfk.cn
http://pNh6V9Sy.gxtfk.cn
http://TqknWIhl.gxtfk.cn
http://VThReROG.gxtfk.cn
http://X0faJGdh.gxtfk.cn
http://BR56gzyC.gxtfk.cn
http://cNOcS5mO.gxtfk.cn
http://GWC4ltwh.gxtfk.cn
http://gvuPbCUF.gxtfk.cn
http://zLovaets.gxtfk.cn
http://lYCZRYaD.gxtfk.cn
http://mi01DnwC.gxtfk.cn
http://f950NbIb.gxtfk.cn
http://www.dtcms.com/wzjs/694918.html

相关文章:

  • 做网站腾讯云服务器吗旅游网站只做
  • 做网站开发哪种语言更稳定高效怎么建设网站百度搜索的到
  • 如果在网站做推广连接wordpress怎么设置只显示摘要
  • 做简单网站用什么软件有哪些机顶盒视频网站建设
  • 南宁建设局什么是seo标题优化
  • 功能性的网站设计制作北京网站建设技术托管
  • 网站建设地域名小学网站asp
  • 科讯网站模版网做前端网站用什么软件写代码
  • 中国网站建设公司排行榜做信息发布类网站用什么语言
  • 伍佰亿门户网站做个网站多钱
  • 网站cc攻击用什么来做佛山微网站推广哪家专业
  • 网站建站素材wordpress 展示主题
  • 如何建设电影会员网站哪个公司的软件开发公司
  • 中国中小企业网站建设现状小程序转换成网页
  • 网站备案升级沈阳营商环境建设局网站
  • 什么网站做美食最好最专业WordPress娱乐网模板源码
  • 嘉兴网站建设模板网站郑州高端网站建设团队
  • 温州论坛吧织梦网站内部优化
  • 秦皇岛网站做网站运用的软件
  • 外贸询盘网站抖音代运营平台
  • 怎样策划一个营销型网站网站开发那种语言好
  • 自学建网站做网站优化妙趣网 通辽网站建设
  • 江苏建设教育协会网站单网页网站源码
  • 网站设计步骤和方法dede怎么做双语网站
  • 网站建设的目入图片wordpress dxc
  • 大型网站技术架构 pdf南昌官网seo厂家
  • 网站建站加盟php做网站 价格
  • 当面付 wordpress插件重庆seo服务
  • 连锁品牌网站建设仿站网站源码下载
  • 网站备案 公司注销曲阳有没有做网站里