当前位置: 首页 > news >正文

Kubernetes集群环境搭建与初始化

1.Kubernetes简介:

Kubernetes是Google开源的一个容器编排引擎,它支持自动化部署、大规模可伸缩、应用容器化管理。在生产环境中部署一个应用程序时,通常要部署该应用的多个实例以便对应用请求进行负载均衡。

在Kubernetes中,我们可以创建多个容器,每个容器里面运行一个应用实例,然后通过内置的负载均衡策略,实现对这一组应用实例的管理、发现、访问,而这些细节都不需要运维人员去进行复杂的手工配置和处理。

1.1总体架构:

Kubernetes的架构包括以下主要组件:

(1)控制平面(Control Plane):包括kube-apiserver、etcd、kube-scheduler、kube-controller-manager和cloud-controller-manager。控制平面负责管理集群的状态、调度Pod到合适的节点、监控节点和Pod的健康状况等。它是集群的大脑。

(2)工作节点(Worker Nodes):包括kubelet、kube-proxy和容器运行时。工作节点则负责运行实际的应用容器,每个工作节点都有一个kubelet进程来管理节点上的Pod,还有一个kube-proxy进程来处理网络代理和负载均衡。

 1.2控制平面组建:

控制面组件的架构图:

(1)Kube-APIServer

Kube-APIServer 是 Kubernetes 控制平面的核心组件,负责处理所有的 REST 操作,暴露 Kubernetes API。它是整个集群的前端,所有的控制请求都要经过它。

主要功能包括

①验证和授权:Kube-APIServer 负责验证用户的身份,并根据配置的访问控制策略进行授权,确保只有合法的请求才能对集群进行操作。

②集群状态管理:APIServer 是集群的状态中心,所有的集群状态信息都通过它来访问和更新。

通信枢纽:Kube-APIServer 是其他控制平面组件和工作节点与集群进行通信的桥梁。所有的组件和节点都通过它来获取和更新集群状态。

③当用户或其他组件向 Kube-APIServer 发送请求时,APIServer 首先进行身份验证和授权检查,然后对请求的数据进行验证和处理。处理完成后,APIServer 会将数据存储到 etcd 中,同时通知其他组件进行相应的操作。

(2)Etcd

Etcd 是一个分布式键值存储,用于存储 Kubernetes 集群的所有数据。它是 Kubernetes 集群的源数据存储系统,所有的配置信息、状态信息都存储在 etcd 中。

主要功能

① 数据存储:Etcd 负责存储所有的集群状态数据,包括 Pod、Service、ConfigMap、Secret 等。

② 数据可靠性:Etcd 通过分布式架构保证数据的高可用性和一致性,确保集群状态数据在发生故障时仍能可靠存储。

③ 数据访问:Etcd 提供了高效的键值对存储和访问接口,支持高频率的读写操作,满足 Kubernetes 对集群状态数据的高频访问需求。

Kube-APIServer 通过 etcd API 进行数据的读写操作。当集群状态发生变化时,APIServer 会将新的状态数据写入 etcd,同时其他组件可以监听 etcd 的变化,从而进行相应的处理。

(3)Kube-Scheduler

Kube-Scheduler 是 Kubernetes 的调度组件,负责将新创建的 Pod 调度到合适的工作节点上。它根据预设的调度策略和节点状态,选择最合适的节点来运行 Pod。

主要功能

① 资源调度:Kube-Scheduler 根据节点的资源使用情况和 Pod 的资源需求,选择合适的节点来运行 Pod。

② 策略配置:Kube-Scheduler 支持多种调度策略,包括资源优先、亲和性、反亲和性等,用户可以根据需求自定义调度策略。

③ 负载均衡:通过合理的调度策略,Kube-Scheduler 能够有效地分配负载,避免节点过载,确保集群的高效运行。

Kube-Scheduler 通过监听 Kube-APIServer 上的调度请求,获取需要调度的 Pod 列表。然后,它根据预设的调度策略和节点的状态,选择最合适的节点,并将调度结果写回 APIServer,最终由相应的节点来运行 Pod。

(4)Kube-Controller-Manager

Kube-Controller-Manager 是 Kubernetes 控制平面的控制管理组件,负责管理集群的各种控制器。这些控制器是用于处理集群状态变化的后台进程。

主要功能:

① 控制器管理:包括 Node Controller、Replication Controller、Endpoint Controller、Namespace Controller 等,这些控制器分别负责节点管理、副本管理、服务发现、命名空间管理等功能。

自动化操作:控制器通过监听集群状态变化,自动执行相应的操作,如副本调整、故障节点隔离、服务更新等。

② 一致性保证:通过控制器的自动化操作,Kube-Controller-Manager 保证了集群状态的一致性和可靠性。

Kube-Controller-Manager 通过监听 Kube-APIServer 的事件,获取集群状态变化的信息。根据不同的控制器,它会执行相应的操作,如创建或删除 Pod、副本调整、节点故障处理等,并将结果写回 APIServer,从而更新集群状态。

(3)Cloud-Controller-Manager

Cloud-Controller-Manager 是 Kubernetes 控制平面的云服务管理组件,用于将 Kubernetes 与底层的云服务集成。它抽象了底层云平台的差异,使得 Kubernetes 可以在不同的云平台上运行。

功能:

① 云资源管理:包括节点管理、负载均衡、存储管理等功能,支持将 Kubernetes 与各种云服务(如 AWS、GCP、Azure)集成。

② 多云支持:通过抽象底层云平台的差异,Cloud-Controller-Manager 使得 Kubernetes 可以在多种云平台上无缝运行。

③ 自动化操作:通过自动化管理云资源,Cloud-Controller-Manager 提高了 Kubernetes 集群的可用性和灵活性。

Cloud-Controller-Manager 通过调用底层云平台的 API,执行相应的操作,如节点创建、负载均衡配置、存储卷管理等。它通过监听 Kube-APIServer 的事件,获取需要执行的操作,然后调用云平台的 API 来完成相应的操作,并将结果写回 APIServer,从而更新集群状态。

1.3工作节点组件:

工作节点组件的架构图:

(1)Kubelet

Kubelet 是运行在每个工作节点上的主要代理进程,负责管理节点上的 Pod 和容器。它通过与 Kube-APIServer 交互,确保节点上容器的正确运行。

主要功能:

① Pod 管理:Kubelet 负责启动和停止节点上的 Pod,并监控它们的状态,确保每个 Pod 按照预期运行。

② 状态报告:Kubelet 定期向 Kube-APIServer 报告节点和 Pod 的状态,包括资源使用情况、健康状态等。

③ 配置管理:Kubelet 根据从 Kube-APIServer 获取的配置信息,配置和管理节点上的容器运行环境。

Kubelet 通过监听 Kube-APIServer 的调度信息,获取需要在本节点上运行的 Pod 列表。它根据 Pod 的配置文件,调用容器运行时(如 Docker、containerd)来启动和管理容器。同时,Kubelet 会定期向 Kube-APIServer 发送心跳信号和状态报告,确保控制平面能够及时了解节点和 Pod 的运行状况。

(2)Kube-Proxy

Kube-Proxy 是 Kubernetes 中的网络代理服务,运行在每个工作节点上,负责维护网络规则,管理 Pod 间的网络通信和负载均衡。

主要功能:

① 服务发现:Kube-Proxy 负责维护节点上的网络规则,确保服务 IP 和端口能够正确映射到相应的 Pod 上。

② 负载均衡:Kube-Proxy 通过 IPTables 或 IPVS 实现服务的负载均衡,将请求分发到后端的多个 Pod 上。

③ 网络路由:Kube-Proxy 处理网络流量,确保节点内外的通信能够正确路由到目标 Pod。

Kube-Proxy 通过监听 Kube-APIServer 获取服务和端点的变化信息,然后根据这些信息动态更新节点上的网络规则。它使用 IPTables 或 IPVS 来实现网络流量的转发和负载均衡,确保请求能够正确分发到相应的 Pod 上。

(3)Pod

Kubernetes 的世界里,Pod 是对容器的进一步抽象和组织,最小的可部署计算单元,也是 Kubernetes 管理的最小对象。它包含一个或多个容器,是一组紧密相关的容器集合,这些容器共享存储、网络和一些配置信息,它们总是被一起调度和管理,在共享的上下文中运行。可以将 Pod 理解为一个 “逻辑主机”,其中包含一个或多个应用容器,这些容器相对紧密地耦合在一起,共同完成特定的任务。

以一个典型的 Web 应用为例,它可能包含一个 Web 服务器容器(如 Nginx)和一个应用程序容器(如基于 Node.js 或 Python 的后端服务)。为了实现两者之间的高效通信,我们可以将这两个容器放在同一个 Pod 中。由于它们共享相同的网络命名空间,Web 服务器容器可以直接通过localhost与应用程序容器进行通信,无需进行复杂的网络配置和地址解析,大大简化了通信流程。

同时,Pod 中的容器还可以共享存储资源。比如,我们可以为上述 Web 应用的 Pod 挂载一个存储卷,用于存储应用程序的日志文件。Web 服务器容器和应用程序容器都可以访问这个存储卷,将各自产生的日志写入其中,方便统一管理和分析。

(4)容器运行时

容器运行时(Container Runtime)是 Kubernetes 中用于运行和管理容器的组件,常见的容器运行时有 Docker、containerd、CRI-O 等。

主要功能:

① 容器管理:容器运行时负责启动、停止和监控容器的运行状态。

② 资源隔离:容器运行时通过 cgroup、namespace 等机制实现容器的资源隔离和限制。

③ 镜像管理:容器运行时负责从镜像仓库拉取容器镜像,并在节点上进行存储和管理。

Kubelet 通过 CRI(Container Runtime Interface)与容器运行时进行交互,向其发送启动和停止容器的指令。容器运行时根据这些指令,调用底层操作系统的容器技术(如 cgroup、namespace)来管理容器的生命周期和资源使用。同时,容器运行时还负责从镜像仓库拉取和管理容器镜像,确保容器能够按需启动。

(5)Node Local Controller

Node Local Controller 是 Kubernetes 中的一种节点本地控制器,负责在每个节点上执行一些特定的控制任务,如本地存储管理、节点健康检查等。

主要功能:

① 本地存储管理:Node Local Controller 负责管理节点上的本地存储资源,如临时存储卷、持久化存储卷等。

② 节点健康检查:通过定期检查节点的运行状态,Node Local Controller 能够及时发现并报告节点的健康问题。

③ 资源分配:根据节点的资源使用情况,Node Local Controller 可以调整资源分配策略,确保节点上的 Pod 能够高效运行。

Node Local Controller 运行在每个工作节点上,通过监听 Kubelet 和 Kube-APIServer 的事件,获取节点的状态信息。根据这些信息,它执行相应的控制操作,如调整存储卷、进行健康检查等,并将结果报告给 Kube-APIServer,从而更新集群的状态。

1.4Kubernetes网络模型:

(1)Pod 和 Service 的网络通信

Kubernetes 的网络模型基于 Pod 和 Service 的通信,通过统一的 IP 地址和端口分配,确保集群内的各个组件能够无缝通信。

(2)Pod 网络

每个 Pod 一个 IP:每个 Pod 都有一个唯一的 IP 地址,这个 IP 地址在整个集群内都是可达的。

① Pod 间通信:Pod 可以直接通过 IP 地址互相通信,无需进行 NAT(网络地址转换)。

② Pod 网络插件:Kubernetes 支持多种网络插件(如 Flannel、Calico、Weave),它们通过 CNI(Container Network Interface)接口与 Kubernetes 集成,提供灵活的网络实现。

(3)Service 网络

① 虚拟 IP:Service 在 Kubernetes 中有一个虚拟 IP 地址(Cluster IP),用于暴露一组 Pod。

② 服务发现:Service 的 IP 地址和端口通过 DNS 解析,使得客户端可以通过服务名访问相应的服务。

③ 负载均衡:Service 自动将请求分发到后端的多个 Pod 上,实现负载均衡。

1.5补充:

(1)‌kubeadm简介

‌kubeadm是Kubernetes主推的部署工具之一,主要用于快速创建和初始化Kubernetes集群

(2)kubectl简介

kubectl 是 Kubernetes 的一个命令行管理工具,可用于 Kubernetes 上的应用部署和日常管理。

2.Kubernetes集群的规划:

节点类型

主机名

IP地址

硬件配置

控制平面节点

master01

192.168.58.30

CPU:4核;内存:2GB;硬盘:60GB

工作节点

node01

192.168.58.31

CPU:2核;内存:2GB;硬盘:30GB

工作节点

node02

192.168.58.32

CPU:2核;内存:2GB;硬盘:30GB

3.准备主机节点:

3.1准备master01主机节点:

3.1.1克隆主机:

1.选中 配置好的CentOS-Stream-8主机(参考:基于VMware的Cent OS Stream 8安装与配置及远程连接软件的介绍_centos8stream-CSDN博客)。

2.然后通过,鼠标右键-》管理-》克隆,进入下图所示的克隆向导界面。

3.然后点击“下一页”,进入下图所示的界面。

4.然后点击“下一页”,进入下图所示的界面。

5.在上图所示的界面中,选择“创建完整克隆”,点击“下一页”,进入下图所示的界面。

6.在上图所示的界面中,设置好新虚拟机的名字,点击完成,进行克隆,具体如下图所示。

7.克隆完成后,如下图所示。

8.在上图所示的界面中,点击关闭,查看新克隆出来的虚拟机master01,具体如下图所示。

9.点击上图中的“开启此虚拟机”,启动master01,输入账号和密码,进入系统,如下图所示。

至此,通过从CentOS-Stream虚拟机进行克隆,我们完成了master的初始化。

3.1.2开启网络:

1.查看当前的网络连接信息。

nmcli connection show

2.使用以下命令修改网络连接配置。

nmcli connection modify ens160 ipv4.addr 192.168.58.30/24 ipv4.gateway 192.168.58.2 connection.autoconnect yes ipv4.dns "114.114.114.114"

3.执行结果,具体如下图。

 注意这里的ens160和图中的ens160是相对应的。

4.通过以下命令激活网络连接配置,使它生效。

nmcli connection up ens160

5. 在Firefox火狐狸浏览器中,访问百度首页,以确保网络联通。

3.1.3设置主机名:

 1.使用以下命令将主机名更改为master01。

hostnamectl set-hostname master01
bash

3.1.4关闭交换区:

Linux中的交互区相当于与Window系统中的虚拟内存。交换器影响应用程序运行的性能与稳定性。从Kubernetes1.8版本开始要求关闭系统的交换区功能,否则Kubernetes1.8无法启动。

1.执行以下命令临时关闭交换区。

swapoff -a

2.查看当前内存,可以发现Swap的各项值均为0,表明交换区已经关闭。

free -m

3. 为了重启后依然关闭交换区,使用sed命令将/etc/fstab中Swap自动挂载的语句注释掉。

sed -ri 's/.*swap.*/#&/' /etc/fstab

3.1.5设置系统同步时间:

1. Kubernetes集群各节点的时间必须同步。Linux系统中,通常通过安装npdate和chrony来提供时间同步功能。本实验安装chrony。

yum install -y chrony

2.修改/etc/chrony.conf配置文件,注释掉原有的时间服务器地址(如果有),然后增加阿里云和腾讯云的时间服务器。

server ntp1.aliyun.com iburst 
server ntp2.aliyun.com iburst 
server ntp1.tencent.com iburst
server ntp2.tencent.com iburst

3. 重启chrony, 并查看同步情况以测试时间同步设置。

systemctl restart chronyd.service
chronyc sources

3.1.6配置主机名解析:

 1.将以下主机名(主机域名)与IP地址之间的映射信息追加到/etc/hosts配置文件中。

# 这里使用自己规划主机的IP和域名
192.168.58.30		master01
192.168.58.31		node01
192.168.58.32		node02

3.1.7安装IPVS相关工具:

IPVS(IP Virtual Server)是Linux内核的一部分,主要用于实现高性能的第四层负载均衡。它运行在主机上,将来自客户端的请求根据预设的调度算法分发到一组真实服务器上,这些真实服务器提供实际的服务。

IPVS相比其他负载均衡解决方案(如LVS的NAT模式、HAProxy等)的优势在于其高性能和低延迟。由于IPVS在内核级别工作,它可以绕过用户空间的数据拷贝和上下文切换,从而提供更高的吞吐量和更低的延迟。此外,IPVS还支持多种调度算法和持久性机制,使其能够适应不同的负载均衡需求。

IPVS的管理程序是ipvsadm。ipvsadm支持直接路由、IP隧道和NAT这中转发模式。

ipset是Linux内核提供的一种高效的数据存储和查询工具,专为管理大规模IP地址设计。ipset允许管理员创建、管理和查询IP集合,这些集合可以包含IP地址、端口、网络等元素。通过使用ipset,管理员可以更方便地管理大量的IP地址,特别是在需要频繁更新或查询IP地址时。

1.安装ipset和ipvsadm。

yum install -y ipset ipvsadm

2.为kub-proxy启用IPVS的前提是加载相应的Linux内核模块。配置/etc/sysconfig/ipvsadm/ipvs.modules脚本文件,以加载所需的内核模块。

mkdir -p /etc/sysconfig/ipvsadm
cat > /etc/sysconfig/ipvsadm/ipvs.modules <<EOF
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack
EOF

3.给定文件权限。

chmod 755 /etc/sysconfig/ipvsadm/ipvs.modules

4.执行该脚本,检查是否已经加载IPVS所需的模块。

bash /etc/sysconfig/ipvsadm/ipvs.modules 
lsmod | grep -e ip_vs -e nf_conntrack

3.2安装containerd相关工具:

从Kubernetes1.23版本开始,容器运行时默认不再采用docker/dockershim,而建议采用containerd。因此,本实验采用containerd。

3.2.1调整内核参数:

1.与Docker作为容器运行时不同,containerd要配置相关内核参数。

执行以下命令加载所需的两个内核模块。

modprobe overlay
modprobe br_netfilter

2.要允许iptables检查桥连接流量,就要显示加载br_netfilter模块。

通过以下命令,检查br_netfilter是否加载成功,具体下图所示。

lsmod | grep br_netfilter

3.通过以下命令在/etc/modules-load.d/目录下创建一个新的配置文件(br_netfilter.conf)。

echo "br_netfilter" | tee -a /etc/modules-load.d/br_netfilter.conf

3.2.2开启路由转发及网桥过滤:

1.编辑/etc/modules-load.d/containerd.conf文件,在其中加入以下内容以配置containerd所需的内核参数。

cat > /etc/modules-load.d/containerd.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward=1
EOF

2.前面两个参数的用途是让Linux节点的iptables能够正确查看桥接流量,最后一个参数用于启用IP转发。

执行以下命令使以上内核参数的调整生效。

sysctl -p /etc/modules-load.d/containerd.conf

3.2.3下载containerd软件包:

wget https://github.com/containerd/containerd/releases/download/v1.6.8/cri-containerd-1.6.8-linux-amd64.tar.gz

3.2.4将该软件包解压到系统根目录:

tar -zxvf cri-containerd-1.6.8-linux-amd64.tar.gz -C /

3.2.5修改/etc/containerd/config.toml配置文件.

1.containerd 的配置文件位于/etc/containerd/config.toml,默认是没有的,通过以下命令生成一个默认配置。

mkdir /etc/containerd
containerd config default > /etc/containerd/config.toml

2.将SystemCgroup值设置为true。

3. 将sandbox_image值设置为国内基础镜像源地址。

  sandbox_image = "registry.aliyuncs.com/google_containers/pause:3.8"

4. 修改中央仓库地址(镜像源)。

[plugins."io.containerd.grpc.v1.cri".registry.mirrors]
   [plugins."io.containerd.grpc.v1.cri".registry.mirrors."docker.io"]
     endpoint = ["https://docker.m.daocloud.io"]
   [plugins."io.containerd.grpc.v1.cri".registry.mirrors."k8s.gcr.io"]
     endpoint = ["https://registry.cn-hangzhou.aliyuncs.com/google_containers"]

3.2.6 启动containerd并设置开机启动:

systemctl daemon-reload 
systemctl enable containerd
systemctl start containerd

3.2.7查看containerd的版本信息:

crictl version

3.3添加Kubernetes组件的阿里云软件源:

1.创建/etc/yum.repos.d/kubernerts.repo,然后在其中添加以下配置。

[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enabled=1
gpgcheck=1
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg

2.执行以下命令查看当前可以安装的Kubernetes版本。

yum list kubeadm.x86_64 --showduplicates|sort -r |grep 1.25

3.4 安装kubeadm、kubelet和kubectl:

kubeadm是用于初始化集群的工具

kubelet用来在集群的每个节点上启动Pop和容器

kubectl用来与集群通信的命令行工具。

1.执行以下命令进行安装。

yum install -y kubelet-1.25.4 kubeadm-1.25.4 kubectl-1.25.4

2.安装完毕后,启动kublete并将其设置为开机自动启动。

systemctl enable kubelet
systemctl start kubelet

3.运行以下命令查看kubelet的当前版本。

kubelet --version

4. 拍摄快照和母机:

4.1拍摄快照存档:

选中master01虚拟机,点击鼠标右键,通过拍照-》拍摄快照进行快照存档,具体如下图所示。

4.2母机克隆:

1.基于master01主机,克隆产生k8s母机,具体如下图所示。

5.准备node1节点主机:

5.1克隆node1节点主机:

基于CentOS-Stream-8-k8s主机克隆产生node1节点主机。

5.2设置IP地址:

1.查看当前的网络连接信息,具体命令如下所示。

nmcli connection show

2.使用以下命令修改网络连接配置。

nmcli connection modify ens160 ipv4.addr 192.168.58.31/24 ipv4.gateway 192.168.58.2 connection.autoconnect yes ipv4.dns "114.114.114.114"

3.通过以下命令激活网络连接配置,使它生效。

nmcli connection up ens160

4.、在Firefox火狐狸浏览器中,访问百度首页,以确保网络联通。

5.3 设置主机名:

使用以下命令将主机名更改为node01。

hostnamectl set-hostname node01
bash

6.准备node2节点主机:

6.1克隆node2节点主机:

基于CentOS-Stream-8-k8s主机克隆产生node2节点主机。

6.2设置IP地址:

1.查看当前的网络连接信息,具体命令如下所示。

nmcli connection show

2.使用以下命令修改网络连接配置。

nmcli connection modify ens160 ipv4.addr 192.168.58.32/24 ipv4.gateway 192.168.58.2 connection.autoconnect yes ipv4.dns "114.114.114.114"

3.通过以下命令激活网络连接配置,使它生效。

nmcli connection up ens160

4.在Firefox火狐狸浏览器中,访问百度首页,以确保网络联通。

6.3  设置主机名:

使用以下命令将主机名更改为node02。

hostnamectl set-hostname node02
bash

7.SSH免密登录配置:

7.1master01主机SSH免密登录:

7.1.1在master01主机中,使用以下指令创建master01主机自己的SSH密钥对(公钥+私钥):

ssh-keygen -t rsa

注意这里一路回车就可以。

如果询问是否重新覆盖已有的密钥,请输入y就行。 

7.1.2使用“ssh-copy-id 用户名@主机名”命令,把本机公钥拷贝到master01节点:

ssh-copy-id root@master01

 注意此过程中,需要输入master01主机root用户的密码。

接着,使用“ssh 用户名@主机名的命令形式进行SSH免密登录。

ssh root@master01

如果执行该命令,不再需要输入密码,那么代表配置成功。否则,失败!

 7.1.3使用“ssh-copy-id 用户名@主机名”命令,把本机公钥拷贝到node01节点:

ssh-copy-id root@node01

 注意此过程中,需要输入node01主机root用户的密码。

接着,使用“ssh 用户名@主机名的命令形式进行SSH免密登录。

ssh root@node01

如果执行该命令,不再需要输入密码,那么代表配置成功。否则,失败!

7.1.4 使用exit命令从node01回到master01主机:

exit

然后使用“ssh-copy-id 用户名@主机名”命令,把本机RSA公钥拷贝到node02节点。

ssh-copy-id root@node02

注意此过程中,需要输入node02主机root用户的密码。

接着,使用“ssh 用户名@主机名的命令形式进行SSH免密登录。

ssh root@node02

如果执行该命令,不再需要输入密码,且登录node02成功;那么代表配置成功。否则,失败!

7.2node01主机SSH免密登入:

7.2.1在node01主机中,使用以下指令创建node01主机自己的SSH密钥对(公钥+私钥):

ssh-keygen -t rsa

注意这里一路回车就可以。

如果询问是否重新覆盖已有的密钥,请输入y就行。

7.2.2使用“ssh-copy-id 用户名@主机名”命令,把本机公钥拷贝到master01节点:

ssh-copy-id root@master01

接着,使用“ssh 用户名@主机名的命令形式进行SSH免密登录。

ssh root@master01

如果执行该命令,不再需要输入密码,且登录master01成功;那么代表配置成功。否则,失败!

7.2.3使用exit命令回到node01主机:

exit

然后使用“ssh-copy-id 用户名@主机名”命令,把本机公钥拷贝到node01节点。

ssh-copy-id root@node01

接着,使用“ssh 用户名@主机名的命令形式进行SSH免密登录。

ssh root@node01

如果执行该命令,不再需要输入密码,那么代表配置成功。否则,失败!

7.2.4使用“ssh-copy-id 用户名@主机名”命令,把本机RSA公钥拷贝到node02节点:

ssh-copy-id root@node02

接着,使用“ssh 用户名@主机名的命令形式进行SSH免密登录。

ssh root@node02

如果执行该命令,不再需要输入密码,且登录node02成功;那么代表配置成功。否则,失败!

7.3node02主机SSH免密登录:

7.3.1在node02主机中,使用以下指令创建node01主机自己的SSH密钥对(公钥+私钥):

ssh-keygen -t rsa

注意这里一路回车就可以。

如果询问是否重新覆盖已有的密钥,请输入y就行。

7.3.2使用“ssh-copy-id 用户名@主机名”命令,把本机公钥拷贝到master01节点:

ssh-copy-id root@master01

接着,使用“ssh 用户名@主机名的命令形式进行SSH免密登录。

ssh root@master01

如果执行该命令,不再需要输入密码,且登录master01成功;那么代表配置成功。否则,失败!

7.3.3使用exit命令回到node02主机:

exit

然后使用“ssh-copy-id 用户名@主机名”命令,把本机公钥拷贝到node01节点。

ssh-copy-id root@node01

接着,使用“ssh 用户名@主机名的命令形式进行SSH免密登录。

ssh root@node01

如果执行该命令,不再需要输入密码,那么代表配置成功。否则,失败!

7.3.4使用exit命令回到node02:

exit

使用“ssh-copy-id 用户名@主机名”命令,把本机RSA公钥拷贝到node02节点。

ssh-copy-id root@node02

接着,使用“ssh 用户名@主机名的命令形式进行SSH免密登录。

ssh root@node02

如果执行该命令,不再需要输入密码,且登录node02成功;那么代表配置成功。否则,失败!

8. Kubernetes集群初始化:

8.1初始化master01控制平面节点:

使用kubeadm命令初始化控制平面节点有以下两种方式。

①使用配置文件。这种方式使用--config选项指定配置文件。不过我们通常使用kubeadm config命令生成默认的配置文件,再根据需要修改后即可完成初始化。

②直接命令行选项参数进行初始化配置。

本实验采用直接命令行选项参数的方式初始化控制平面节点。

1.在master01中,执行以下命令。

kubeadm init \
--apiserver-advertise-address 192.168.56.30  \ # 使用自己主机IP
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version v1.25.4 \
--service-cidr=10.96.0.0/12 \
--pod-network-cidr=10.244.0.0/16 \
--ignore-preflight-errors=all

2.第一次执行该命令的时候,会非常慢。如果支持成功,最终结果如下图 :

3. 同时,注意上图中的以下提示(复制自己生成的):

Then you can join any number of worker nodes by running the following on each as root:

kubeadm join 192.168.58.30:6443 --token t7vihm.3rixihzk1jrxj50f \
        --discovery-token-ca-cert-hash sha256:ca2a996fe5251f29032df4a9d22c2a8d5fc2ae42d2b63df9b30e182153082781

8.2为kubectl命令提供配置文件:

通过上一步的kubeadm init,系统为我们生成了一个Kubernetes系统管理员权限的认证配置文件/etc/kubernetes/admin.conf。

1.现在我们按照图8-2的提示,将该配置文件复制到该目录的config子目录以便运行kubectl。

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

2.执行完上述命令,我们就可以使用kubectl命令查看当前的集群节点信息。

kubectl get node

 目前集群中有且仅有一个节点,master01控制平面节点。

8.3将工作节点加入集群:

8.3.1在node01主机中,根据图8-2的提示,执行以下命令将其加入到集群中:

使用自己生成的。

kubeadm join 192.168.58.30:6443 --token t7vihm.3rixihzk1jrxj50f \
        --discovery-token-ca-cert-hash sha256:ca2a996fe5251f29032df4a9d22c2a8d5fc2ae42d2b63df9b30e182153082781

8.3.2 在node02主机中,根据图8-2的提示,执行以下命令将其加入到集群中:

kubeadm join 192.168.58.30:6443 --token t7vihm.3rixihzk1jrxj50f \
        --discovery-token-ca-cert-hash sha256:ca2a996fe5251f29032df4a9d22c2a8d5fc2ae42d2b63df9b30e182153082781

8.8.3 在master01主机中,执行以下命令,查看节点信息:

kubectl get node

集群中右增加了两个工作节点。

 另外,请注意加入工作节点令牌默认有效期为24小时,过去之后该令牌就不可用了。如果有需要。最简单的就是在master01主机,使用以下命令创建新的令牌。

kubeadm token create --print-join-command

9. 安装Pod网络插件:

Calico是一款开源的网络和安全解决方案,专为容器化应用而设计,基于Kubernetes的网络插件模型.Calico为每个容器或虚拟机分配一个独立的网络命名空间,以避免潜在的网络冲突。这些命名空间各自拥有独特的IP地址和路由表。

9.1在master01主机中,从官网下载安装Calico插件所需的配置文件calico.yaml:

wget https://docs.projectcalico.org/manifests/calico.yaml

9.2修改calico.yam配置文件,将其中的值为之前执行kubeadm init命令时通过--pod-network-cidr选项指定的Pod网络地址:

-name:CALICO_IPV4POOL_CIDR
 Value:”10.244.0.0/16”

9.3 执行以下命令使用配置calico.yaml,在集群中部署Calico插件(创建多种Kubernetes资源):

kubectl apply -f calico.yaml

这个过程可能有点慢,请耐心等待。

9.4查看名称空间kube-system下的所有Pod:

kubectl get pods -n kube-system 

9.5执行以下命令进一步查看Calica插件在各节点上的部署情况:

kubectl get po -A -o wide|grep calico

10. 测试Kubernetes集群:

尝试在Kubernetes集群部署运行nginx,以测试Kubernetes集群的可用性。

10.1在master01主机上,执行以下命令创建高一个简单的Deployment以运行nginx:

kubectl create deployment nginx --image=nginx:latest

10.2 在master01主机上,执行以下命令将该deployment 发布为Service以供外部访问:

kubectl expose deployment nginx --port 80 --type=NodePort

 以上命令用于将一个名为 nginx 的 Deployment 暴露为一个 NodePort 类型的 Service,从而允许外部流量通过集群的节点访问该 Deployment 中的 Pod。

  • kubectl expose deployment nginx:将名为 nginx 的 Deployment 暴露为一个 Service。
  • --port 80:指定 Service 的端口为 80,这意味着从外部访问时,请求会被转发到 Pod 的 80 端口。
  • --type=NodePort:指定 Service 的类型为 NodePort。NodePort 类型的 Service 会在每个节点上开放一个端口(通常在 30000-32767 范围内),从而允许外部流量通过节点访问集群内的 Pod。

10.3 在master01主机上,查看创建的Pod和Service是否正常运行:

kubectl get pod,svc

注意上图中的READY正常应该为1/1。

如果这里READY为0,可以通过使用 kubectl logs <pod-name> 查看容器日志或者使用 kubectl describe pod <pod-name> 查看详细信息。

如果日志显示拉取镜像失败,那么仔细检查图3-23中containerd镜像源配置或者使用以下命令强行直接拉取镜像。

ctr images pull docker.m.daocloud.io/library/nginx:latest

 10.4通过以下命令访问发布的nginx服务器:

curl http://master01:30478
curl http://node01:30478
curl http://node02:30478

或者直接通过浏览器进行访问,具体如下图所示。

到此整个实验结束。 

相关文章:

  • 【实战手册】8000w数据迁移实践:MySQL到MongoDB的完整解决方案
  • 蓝桥杯备赛知识点总结
  • 小白学习java第12天(下):IO流之字符输入输出
  • 联影医疗智能体 重构医疗新范式
  • 【物联网】PWM控制蜂鸣器
  • aosp13增加摄像头控制功能实现
  • C#MVC项目引用Swagger的详细步骤
  • C++指针(二)
  • DAOS系统架构-组件
  • Mamba原理及在low-level vision的工作[持续更新]
  • 14-大模型微调和训练之-Hugging Face 模型微调训练(基于 BERT 的中文评价情感分析(二分类))
  • opencv-python基础
  • 如何让老电脑运行快些(极限榨干老电脑硬件)
  • 傅利叶发布首款开源人形机器人N1:开发者可实现完整复刻
  • 科普:关系图谱中的网络特征如何输入到模型中?
  • 华为RH2288H V3服务器极速重装:从RedHat到openEuler 24超详细重装指南
  • 2025ArkTS基础UI(一)——Column、Row、Text、Button组件
  • 主服务器和子服务器之间通过NFS实现文件夹共享
  • 【数据结构】集合框架、时间复杂度和空间复杂度
  • 同时打开多个Microchip MPLAB X IDE
  • 网站备案信息查询/如何进行关键词优化工作
  • 没学过计算机开始学做网站/什么是seo文章
  • 青岛seo网站排名/百度推广营销
  • 北京网站制作设计推广公司/最近一个月的热点事件
  • 设计网站会员/今天发生的新闻
  • 汉中做网站电话/seo优化网站优化排名