当前位置: 首页 > article >正文

kubeadm安装K8s高可用集群之集群初始化及master/node节点加入calico网络插件安装

系列文章目录
1.kubeadm安装K8s高可用集群之基础环境配置
2.kubeadm安装K8s集群之高可用组件keepalived+nginx及kubeadm部署
3.kubeadm安装K8s高可用集群之集群初始化及master/node节点加入集群calico网络插件安装

kubeadm安装K8s高可用集群之集群初始化及master/node节点加入calico网络插件安装

    • 1.设置集群kubeadm-config配置文件
    • 2.安装calico网络插件
    • 3.其他master节点加入集群
    • 4.node节点加入命令

1.设置集群kubeadm-config配置文件

  1. 输入命令获取默认的kubeadm-config.yaml,然后再做出调整;
kubeadm config print init-defaults > kubeadm-config.yaml
  1. 输入命令对默认文件的内容进行覆盖,调整后的kubeadm-config.yaml文件的内容如下:

提示:请根据注释和实际情况的需要,对配置中必要的内容进行调整;

cat > kubeadm-config.yaml <<EOF
apiVersion: kubeadm.k8s.io/v1beta2
bootstrapTokens:
- groups:
  - system:bootstrappers:kubeadm:default-node-token
  token: abcdef.0123456789abcdef       #设置token
  ttl: 24h0m0s
  usages:
  - signing
  - authentication
kind: InitConfiguration
localAPIEndpoint:
  advertiseAddress: 192.168.0.105
  bindPort: 6443
nodeRegistration:
  criSocket: /var/run/dockershim.sock
  name: k8s01-m1          #设置节点名字hosts
  taints:
  - effect: NoSchedule
    key: node-role.kubernetes.io/master
---
apiServer:
  certSANs:
  - k8s01-m1              #设置master节点1的hosts,请根据实际情况调整;
  - k8s02-m2              #设置master节点2的hosts,请根据实际情况调整;
  - 192.168.0.105         #设置master节点1的ip,请根据实际情况调整;
  - 192.168.0.106         #设置master节点2的ip,,请根据实际情况调整;
  - 192.168.200.18        #设置vip地址,请根据实际情况调整;
  - 127.0.0.1
  extraArgs:
    authorization-mode: Node,RBAC
  timeoutForControlPlane: 4m0s
apiVersion: kubeadm.k8s.io/v1beta2
certificatesDir: /etc/kubernetes/pki
clusterName: kubernetes
controlPlaneEndpoint: "192.168.200.18:16443"           #设置vip地址,即设置的虚拟ip+nginx监听的端口;
controllerManager: {}
dns:
  type: CoreDNS
etcd:
  local:
    dataDir: /var/lib/etcd
imageRepository: registry.aliyuncs.com/google_containers          #修改为阿里云仓库;
kind: ClusterConfiguration
kubernetesVersion: v1.20.8                      #设置需要安装的kubernetes版本;
networking:
  dnsDomain: cluster.local
  podSubnet: 10.244.0.0/16                      #设置pod的网段;
  serviceSubnet: 10.96.0.0/12                   #server的网段;
scheduler: {}
---
apiVersion: kubeproxy.config.k8s.io/v1alpha1
kind: KubeProxyConfiguration
mode: ipvs                                      #开启ipvs模式
---
EOF

可以选择将修改的配置加载为新的配置,执行以下命令,执行命令后会生成一个new.yaml文件;

kubeadm config migrate --old-config kubeadm-config.yaml --new-config new.yaml
  1. 拉取配置文件中设置的相关镜像
kubeadm config images pull --config kubeadm-config.yaml

可以执行命令查看拉取的镜像:docker images
如图:

在这里插入图片描述

注意:以上步骤,所有的节点都需要执行;

  1. 接下来只需要执行命令初始化集群即可
kubeadm init --config kubeadm-config.yaml --upload-certs

注意:
1.只有主节点master1执行kubeadm init初始化;
2.其他master、node节点无需执行,待主节点初始化完成后kubeadm join命令即可;

提示:如果集群初始化失败,可以执行命令,进行重置调整后再次初始化
kubeadm reset -f
iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -X

初始化成功可以看到以下内容:

在这里插入图片描述

  1. 然后根据日志提示进行kubectl进行授权执行以下命令,并将下方的这些内容记录一下后面节点加入集群时需要用到;
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

有时候可能会出现权限、环境变量的问题:
权限问题给文件赋予权限即可:chmod 755 $HOME/.kube/config
环境变量问题,配置以下环境变量即可:export KUBECONFIG=$HOME/.kube/config

可以输入命令查看po的状态,因为没安装网络插件的原因,有的po是起不来的;

kubectl get po -n kube-system

2.安装calico网络插件

  1. 主节点安装网络插件即可,其他节点在加入集群后会自动拉取网络插件相关的po;

首先需要在官网下载一个配置文件,执行命令如下:

curl https://docs.projectcalico.org/archive/v3.18/manifests/calico.yaml -O

注意:我这里是安装的3.18版本,calico官网有说明,calico可适用的对应k8s版本,请根据实际版本情况选择版本安装;

在这里插入图片描述

  1. 文件下载好后,我们需要对calico.yaml文件进行修改;

搜索CALICO_IPV4POOL_CIDR关键字,其中name和value参数默认是注释掉的,将注释放开,并将value的值改成与kubeadm-config.yam中的networking -- podSubnet中的ip一致;即与集群设置的pod的虚拟网段ip保持一致

注意:修改时注意格式;

 - name: CALICO_IPV4POOL_CIDR
      value: "10.244.0.0/16" 	#与集群设置的pod的虚拟网段ip保持一致;

如图我这里的pod网段是10.244.0.0

在这里插入图片描述

calico.yaml中同样改为对应的

在这里插入图片描述

  1. 然后执行命令进行部署
kubectl apply -f calico.yaml

如图部署成功!

在这里插入图片描述

注意:网络不好镜像可能会拉不下来
可以输入命令查看po的名称:kubectl get po -n kube-system
根据名字查看状态不正确的po报错的原因如:kubectl describe pod -n kube-system calico-node-q6ksq
如果是因为拉取失败的话可以尝试手动拉取对应镜像如:docker pull docker.io/calico/cni:v3.18.6

如图:查找calico对应的node名称

在这里插入图片描述

查看报错原因:

在这里插入图片描述

3.其他master节点加入集群

  1. 创建证书存放目录并上传证书

在需要加入集群的新master节点中创建证书存放目录;

 mkdir -p /etc/kubernetes/pki/etcd && mkdir -p ~/.kube/

然后把主节点master1节点的证书拷贝到master2上;

scp -r /etc/kubernetes/pki/ca.* root@k8s02-m2:/etc/kubernetes/pki/
scp -r /etc/kubernetes/pki/sa.* root@k8s02-m2:/etc/kubernetes/pki/
scp -r /etc/kubernetes/pki/front-proxy-ca.* root@k8s02-m2:/etc/kubernetes/pki
scp -r /etc/kubernetes/pki/etcd/ca.* root@k8s02-m2:/etc/kubernetes/pki/etcd
scp -r /etc/kubernetes/admin.conf root@k8s02-m2:/etc/kubernetes/
  1. 验证网络是否畅通

在新节点上验证负载均衡的网络地址是否畅通;

#ip端口修改为实际的ip端口
curl -k https://192.168.200.18:16443

如果网络畅通则可以直接执行第3步,输入命令执行进行加入命令,如果网络连接不通,则需要进行排查;如我这里由于前面设置的 vip地址controlPlaneEndpoint: "192.168.200.18:16443"与主机不在同一个网络,除了主节点外,其他节点无法直接访问,需要添加路由才行;

临时添加路由:(不推荐,此方法机器重启后就会失效,适合用来临时测试)
首先查看节点是否有vip对应的路由

ip route

不存在则加一条

#192.168.200.0/24,".0/24"后面几位不变前面3位和你的vip地址相同即可
#192.168.0.1是主机实际的默认网关
#ens32是主机、网卡名
ip route add 192.168.200.0/24 dev 192.168.0.1 dev ens32

刷新缓存后,再次查询是否加入成功

ip neigh flush all
ip route

成功添加后,测试一下网络是否正常,正常则可执行第3步加入集群;

#ip端口修改为实际的ip端口
curl -k https://192.168.200.18:16443

永久添加路由:(推荐使用,机器重启后不会失效)

编辑/etc/rc.local文件并添加内容

vim /etc/rc.local

在文件中插入以下内容

#192.168.200.0/24,".0/24"后面几位不变前面3位和你的vip地址相同即可
#192.168.0.1是主机实际的默认网关
#ens32是主机、网卡名
ip route add 192.168.200.0/24 dev 192.168.0.1 dev ens32

给文件添加执行权限,并设置为开机自启,后启动服务;

chmod +x /etc/rc.d/rc.local
systemctl enable rc-local
systemctl start rc-local

将机器重启验证路由是否自动添加了

reboot
#清除缓存
ip neigh flush all
#查看路由表中是否添加
ip route

成功添加后,测试一下网络是否正常,正常则可执行第3步加入集群;

#ip端口修改为实际的ip端口
curl -k https://192.168.200.18:16443
  • 加入节点命令

  • 首先我们在主节点查看是否存在证书;

kubectl get secret -n kube-system | grep kubeadm-certs

如果不存在则执行命令创建一个证书,并获取新的加入集群的命令;

kubeadm init phase upload-certs --upload-certs

获取新的加入集群的命令

kubeadm token create --print-join-command
  • 存在证书则,直接执行,主机节点初始化时给出的命令,进行加入集群;
kubeadm join 192.168.200.18:16443 --token abcdef.0123456789abcdef \
    --discovery-token-ca-cert-hash sha256:b396cdc01129c9e9d03c072d3b65536164a6a1a23a80bed4305452603012ea3b \
    --control-plane --certificate-key d9742f79ef7a216dbe2aca5ebf34d0dd12a9ad46fe735dcca199984f2e1408b7

注意:加入集群,master和node的命令是一样的都是kubeadm join,区别在于--control-plane参数,有该参数则是,加入master节点,没有则是加入node节点;

成功加入集群后根据日志提示进行kubectl进行授权执行以下命令

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

加入成功!


可以输入命令查看节点是否加入成功;

kubectl get node

通过命令查看新增主机上的po状态是否正常

kubectl get po -n kube-system

查看某po的详情,日志

kubectl describe pod -n kube-system poNmae

4.node节点加入命令

node节点的加入很简单只需要安装了kubeadm、kubectl、kubelet即可执行kubeadm join命令;同master差不多,唯一的区别是不需要--control-plane参数

注意:node节点加入集群不需要--control-plane参数
设置的vip不和主机ip在同一个网段时,需要手动添加路由规则,添加方法参考上文的master节点加入;

  • node节点加入集群

建议先测以下网络是否畅通;

#ip端口修改为实际的ip端口
curl -k https://192.168.200.18:16443

网络正常,则直接执行命令加入即可;

kubeadm join 192.168.200.18:16443 --token abcdef.0123456789abcdef \
    --discovery-token-ca-cert-hash sha256:b396cdc01129c9e9d03c072d3b65536164a6a1a23a80bed4305452603012ea3b
  • 忘记命令处理方法

如果不记得加入的命令了,可以执行以下命令,获取新的加入集群的命令;

kubeadm token create --print-join-command
  • 重置node节点

提示:如果加入集群失败,则可以进行重置;

输入命令重置

kubeadm reset -f

重置完成后,根据日志提示删除以下文件;

rm  -rf /etc/cni/net.d
rm  -rf $HOME/.kube/config
rm -rf /etc/kubernetes/kubelet.conf

清除iptables中所有规则后重新加载配置,再次输入命令进入加入集群即可;

iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -X
systemctl daemon-reload

http://www.kler.cn/a/444168.html

相关文章:

  • 金碟中间件-AAS-V10.0安装
  • asp.net core发布配置端口号,支持linux
  • 线程知识总结(一)
  • CarWatchdog
  • ChatGPT等大语言模型与水文水资源、水环境领域的深度融合
  • JS信息收集(小迪网络安全笔记~
  • 系列1:基于Centos-8.6部署Kubernetes (1.24-1.30)
  • 深入浅出Flink CEP丨如何通过Flink SQL作业动态更新Flink CEP作业
  • git stash 的文件如何找回
  • 数据结构--插入排序
  • JAVA开发时获取用户信息失败,分析后端日志信息
  • spring @Mapper Converter转换泛型异常
  • Kafka Streams 在监控场景的应用与实践
  • 使用正则表达式提取PDF文件页数的实现方案
  • 观察者模式(sigslot in C++)
  • docker pull 报错Get “https://registry-1.docker.io/v2/“: net/http: request canceled while waiting for c
  • CSS学习-第三天
  • 基于springboot的在线政务服务系统的设计与实现-仅供学习
  • 实景视频与模型叠加融合?
  • YOLOv8改进 | 损失函数 | 结合NWD的Shape-IoU【全网独家】
  • 广场维修:JAVA
  • Reactor 响应式编程(第三篇:R2DBC)
  • 大数据治理:构建数据驱动的智慧教学体系
  • 利用两种方式分别实现单例模式(懒汉式、饿汉式)
  • kafka 本地 windos部署详细教学,轻松使用本地kafka进行消息推送接收!
  • MQTT协议介绍与C++服务端客户端实现