当前位置: 首页 > article >正文

(k8s)Kubernetes 从0到1容器编排之旅

一、引言

在当今数字化的浪潮中,Kubernetes 如同一艘强大的航船,引领着容器化应用的部署与管理。它以其卓越的灵活性、可扩展性和可靠性,成为众多企业和开发者的首选。然而,要真正发挥 Kubernetes 的强大威力,仅仅掌握基本操作是远远不够的。本文将带你深入探索 Kubernetes 使用过程中的奇技妙法,为你开启一段优雅的容器编排之旅。

二、高级资源管理之精妙艺术

  1. 1. 资源配额与限制:雕琢资源之美

    • • Kubernetes 允许为命名空间精心设置资源配额,如同一位艺术家在画布上勾勒出资源的边界。通过巧妙地设置 CPU 和内存的 requests 和 limits,可以精准地控制容器的资源使用,确保不同团队或项目之间和谐共处,避免资源的过度消耗。

    • • 操作示例:使用以下命令为命名空间“my-namespace”设置资源配额,限制 CPU 和内存的使用总量。

apiVersion: v1
kind: ResourceQuota
metadata:
  name: my-resource-quota
  namespace: my-namespace
spec:
  hard:
    requests.cpu: "2"
    requests.memory: "4Gi"
    limits.cpu: "4"
    limits.memory: "8Gi"
  • • 可以使用kubectl apply -f命令来应用这个资源配额配置。

  1. 1. 弹性伸缩:舞动资源之灵

    • • Horizontal Pod Autoscaler(HPA)就像是一位灵动的舞者,能够根据 CPU 使用率或其他指标自动调整 Pod 的数量。在流量的高峰与低谷之间,它轻盈地舞动,为应用提供恰到好处的资源支持。

    • • 操作示例:首先,为你的 Deployment 或 ReplicaSet 添加资源请求和限制,然后创建一个 HPA 对象来自动调整 Pod 的数量。

apiVersion: autoscaling/v2beta2
kind: HorizontalPodAutoscaler
metadata:
  name: my-hpa
  namespace: my-namespace
spec:
  scaleTargetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: my-deployment
  minReplicas: 2
  maxReplicas: 10
  metrics:
  - type: Resource
    resource:
      name: cpu
      target:
        type: Utilization
        averageUtilization: 70
  • • 使用kubectl apply -f命令应用 HPA 配置。

  1. 1. 资源亲和性与反亲和性:编织资源之网

    • • 资源亲和性和反亲和性规则如同编织一张精细的资源之网,让 Pod 在节点上的分布更加合理。可以根据应用的特点和需求,将具有特定需求的 Pod 部署在合适的节点上,提高系统的可靠性和性能。

    • • 操作示例:在 Deployment 的配置文件中添加亲和性和反亲和性规则。

apiVersion: apps/v1
kind: Deployment
metadata:
  name: my-deployment
  namespace: my-namespace
spec:
  template:
    spec:
      affinity:
        nodeAffinity:
          requiredDuringSchedulingIgnoredDuringExecution:
            nodeSelectorTerms:
            - matchExpressions:
              - key: disk-type
                operator: In
                values:
                - ssd
        podAntiAffinity:
          requiredDuringSchedulingIgnoredDuringExecution:
          - labelSelector:
              matchExpressions:
              - key: app
                operator: In
                values:
                - my-app
            topologyKey: "kubernetes.io/hostname"
  • • 应用这个配置文件来实现资源的亲和性和反亲和性。

三、网络优化之优雅旋律

  1. 1. Ingress 与 Service Mesh:奏响网络之曲

    • • Ingress 作为集群的入口,宛如一位优雅的指挥家,将外部流量巧妙地路由到内部的服务。而 Service Mesh,如 Istio,则像是一支精湛的乐队,为网络流量带来更高级的管理和安全控制。两者结合,共同奏响一曲网络优化的优雅旋律。

    • • 操作示例:安装 Istio,并为你的应用创建一个 Gateway 和 VirtualService 对象来定义入口流量的路由规则。

apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
  name: my-gateway
  namespace: my-namespace
spec:
  selector:
    istio: ingressgateway
  servers:
  - port:
      number: 80
      name: http
      protocol: HTTP
    hosts:
    - "*"
---
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: my-virtual-service
  namespace: my-namespace
spec:
  gateways:
  - my-gateway
  hosts:
  - "*"
  http:
  - route:
    - destination:
        host: my-service
        port:
          number: 80
  • • 使用kubectl apply -f命令应用这些配置。

  1. 1. NetworkPolicy:谱写安全之章

    • • NetworkPolicy 如同一位严谨的作曲家,为 Pod 之间的网络访问谱写安全之章。通过定义精细的网络访问规则,可以有效地控制哪些 Pod 可以相互通信,哪些 Pod 不能通信,提高系统的安全性。

    • • 操作示例:创建一个 NetworkPolicy 对象来限制 Pod 之间的网络访问。

apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
  name: my-network-policy
  namespace: my-namespace
spec:
  podSelector:
    matchLabels:
      app: my-app
  policyTypes:
  - Ingress
  - Egress
  ingress:
  - from:
    - podSelector:
        matchLabels:
          app: allowed-app
    ports:
    - protocol: TCP
      port: 80
  egress:
  - to:
    - podSelector:
        matchLabels:
          app: allowed-destination
    ports:
    - protocol: TCP
      port: 443
  • • 应用这个 NetworkPolicy 配置来限制网络访问。

  1. 1. 跨集群通信:演绎协同之舞

    • • 在复杂的场景下,跨集群通信就像是一场精彩的协同之舞。Kubernetes 提供了 Federation 和 Service Mesh 的跨集群模式等解决方案,让不同的集群之间能够实现资源的统一管理和跨集群的服务发现。

    • • 操作示例:使用 Kubernetes Federation 来联合多个集群。首先,安装 Federation 控制器,然后创建一个 Federation 资源对象来定义跨集群的资源。

apiVersion: federation.k8s.io/v1beta1
kind: Cluster
metadata:
  name: cluster1
spec:
  serverAddressByClientCIDRs:
  - clientCIDR: "0.0.0.0/0"
    serverAddress: "https://cluster1-api-server-address"
---
apiVersion: federation.k8s.io/v1beta1
kind: FederatedDeployment
metadata:
  name: my-federated-deployment
  namespace: my-namespace
spec:
  template:
    metadata:
      labels:
        app: my-app
    spec:
      replicas: 3
      selector:
        matchLabels:
          app: my-app
      template:
        metadata:
          labels:
            app: my-app
        spec:
          containers:
          - name: my-container
            image: my-image
  placement:
    clusters:
    - name: cluster1
    - name: cluster2
  • • 应用这个配置来实现跨集群的部署。

四、存储优化之细腻笔触

  1. 1. PersistentVolumeClaim(PVC)与 PersistentVolume(PV):描绘存储之画

    • • PVC 和 PV 就像是画家手中的画笔和画布,为应用提供持久化存储。通过合理设置存储类和访问模式,可以描绘出满足不同应用需求的存储画卷。

    • • 操作示例:创建一个 StorageClass 对象来定义存储类,然后创建一个 PV 和 PVC 对象来请求存储。

apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: my-storage-class
provisioner: kubernetes.io/aws-ebs
parameters:
  type: gp2
reclaimPolicy: Retain
---
apiVersion: v1
kind: PersistentVolume
metadata:
  name: my-pv
spec:
  capacity:
    storage: 10Gi
  accessModes:
  - ReadWriteOnce
  persistentVolumeReclaimPolicy: Retain
  storageClassName: my-storage-class
  awsElasticBlockStore:
    volumeID: <volume-id>
    fsType: ext4
---
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: my-pvc
  namespace: my-namespace
spec:
  accessModes:
  - ReadWriteOnce
  resources:
    requests:
      storage: 5Gi
  storageClassName: my-storage-class
  • • 应用这些配置来创建持久化存储。

  1. 1. StatefulSet:铸就存储之魂

    • • StatefulSet 如同一位雕塑家,为有状态应用铸就存储之魂。它可以为每个 Pod 分配一个稳定的存储和网络标识,使得有状态应用在升级和故障恢复时更加可靠。

    • • 操作示例:创建一个 StatefulSet 对象来部署有状态应用。

apiVersion: apps/v1
kind: StatefulSet
metadata:
  name: my-statefulset
  namespace: my-namespace
spec:
  serviceName: my-service
  replicas: 3
  selector:
    matchLabels:
      app: my-app
  template:
    metadata:
      labels:
        app: my-app
    spec:
      containers:
      - name: my-container
        image: my-image
        volumeMounts:
        - name: my-persistent-storage
          mountPath: /data
  volumeClaimTemplates:
  - metadata:
      name: my-persistent-storage
    spec:
      accessModes:
      - ReadWriteOnce
      resources:
        requests:
          storage: 5Gi
      storageClassName: my-storage-class
  • • 应用这个配置来部署有状态应用。

  1. 1. 存储插件:挥洒存储之彩

    • • Kubernetes 支持多种存储插件,就像画家拥有丰富的颜料一样。根据存储需求选择合适的存储插件,可以挥洒出绚丽多彩的存储画卷。

    • • 操作示例:安装和配置所需的存储插件,如 Ceph、GlusterFS 等。以 Ceph 为例,首先安装 Ceph 集群,然后在 Kubernetes 中创建一个 Ceph RBD StorageClass。

apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: ceph-rbd
provisioner: kubernetes.io/rbd
parameters:
  monitors: <ceph-monitor-addresses>
  pool: <rbd-pool-name>
  imageFormat: "2"
  imageFeatures: "layering"
reclaimPolicy: Retain
  • • 然后可以使用这个 StorageClass 来创建 PVC 和 PV,为应用提供 Ceph 存储。

五、故障排查与调试之睿智洞察

  1. 1. kubectl 命令行工具:开启洞察之窗

    • • kubectl 就像是一把神奇的钥匙,开启了故障排查与调试的洞察之窗。通过丰富的命令,可以查看资源的详细信息、容器的日志,甚至在容器内部执行命令进行故障排查。

    • • 操作示例:使用kubectl describe命令查看 Pod 的详细信息。

kubectl describe pod my-pod -n my-namespace

• 使用kubectl logs命令查看容器的日志。

kubectl logs my-pod -n my-namespace

• 使用kubectl exec命令在容器内部执行命令进行故障排查。

kubectl exec -it my-pod -n my-namespace -- bash
  1. 1. 监控与日志收集:点亮洞察之灯

    • • 建立完善的监控和日志收集系统,就像点亮了一盏洞察之灯。Kubernetes 提供了一些工具,如 Prometheus 和 Grafana 用于监控集群的性能指标,以及 Elasticsearch、Fluentd 和 Kibana(EFK)用于收集和分析容器的日志。

    • • 操作示例:安装 Prometheus 和 Grafana,配置 Prometheus 来采集 Kubernetes 集群的指标,并在 Grafana 中创建仪表盘来展示监控数据。

    • • 安装 EFK 栈,配置 Fluentd 来收集容器的日志,并将日志发送到 Elasticsearch,然后使用 Kibana 来查询和分析日志。

  2. 2. 调试工具:施展洞察之术

    • • Kubernetes 还提供了一些调试工具,如 kubectl debug 和 ephemeral-container。这些工具就像是魔法师的法术,能够在运行中的 Pod 中启动一个临时容器,用于进行故障排查和调试。

    • • 操作示例:使用kubectl debug命令在 Pod 中启动一个调试容器。

kubectl debug my-pod -n my-namespace --image=<debug-image>

• 使用ephemeral-container功能,在不重启 Pod 的情况下,为其添加一个临时容器。

apiVersion: v1
kind: Pod
metadata:
  name: my-pod
  namespace: my-namespace
spec:
  containers:
  - name: my-container
    image: my-image
  ephemeralContainers:
  - name: debug-container
    image: <debug-image>
    command: ["/bin/bash"]
    stdin: true
    tty: true
  • • 使用kubectl replace命令应用这个配置,添加临时容器进行调试。

六、高级部署策略之精妙布局

  1. 1. 蓝绿部署与金丝雀发布:谋划部署之策

    • • 蓝绿部署和金丝雀发布就像是一位战略家在谋划部署之策。通过同时维护两个版本的应用,或者逐步将流量引入到新版本的应用中,可以在不影响用户的情况下进行应用的升级和测试。

    • • 操作示例:对于蓝绿部署,首先部署新版本的应用到一个独立的命名空间或环境中,进行充分的测试。然后,使用 Ingress 或 Service Mesh 的路由规则,将流量从旧版本切换到新版本。

    • • 对于金丝雀发布,使用 HPA 或手动调整 Pod 的数量,逐步将一小部分流量引入到新版本的应用中,观察其性能和稳定性。如果新版本表现良好,可以逐步增加流量,直到全部切换到新版本。

  2. 2. A/B 测试:探索用户之需

    • • A/B 测试就像是一位市场研究员在探索用户之需。通过在 Kubernetes 中使用流量路由规则,可以将一部分流量引导到 A 版本的应用,另一部分流量引导到 B 版本的应用,然后通过监控和分析用户行为来确定哪个版本的应用更优。

    • • 操作示例:使用 Service Mesh 的流量路由规则,创建一个 VirtualService 对象来定义 A/B 测试的路由规则。

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
  name: my-virtual-service
  namespace: my-namespace
spec:
  hosts:
  - my-service
  http:
  - route:
    - destination:
        host: my-service-v1
        subset: v1
      weight: 50
    - destination:
        host: my-service-v2
        subset: v2
      weight: 50
  • • 这里将 50%的流量引导到 A 版本(my-service-v1),50%的流量引导到 B 版本(my-service-v2)。然后通过监控和分析用户行为来确定哪个版本更优。

  1. 1. 滚动更新:稳步推进之法

    • • 滚动更新是 Kubernetes 中默认的部署策略,就像一位稳健的行者在稳步推进。它可以逐步更新 Pod,以确保应用的可用性。在滚动更新过程中,Kubernetes 会逐个替换旧版本的 Pod,同时确保新版本的 Pod 正常运行后才继续替换下一个 Pod。

    • • 操作示例:在 Deployment 的配置文件中,可以调整滚动更新的参数,如最大不可用 Pod 数量和最大 surge 数量。

apiVersion: apps/v1
kind: Deployment
metadata:
  name: my-deployment
  namespace: my-namespace
spec:
  replicas: 10
  strategy:
    type: RollingUpdate
    rollingUpdate:
      maxSurge: 2
      maxUnavailable: 1
  template:
    metadata:
      labels:
        app: my-app
    spec:
      containers:
      - name: my-container
        image: my-image
  • • 这里设置最大 surge 数量为 2,表示在更新过程中可以同时创建最多 2 个新的 Pod。最大不可用 Pod 数量为 1,表示在更新过程中最多可以有 1 个 Pod 不可用。

七、安全加固之坚固防线

  1. 1. RBAC(Role-Based Access Control):筑牢安全之墙

    • • RBAC 就像是一位坚固的卫士,为 Kubernetes 资源筑牢安全之墙。通过定义角色和角色绑定,可以实现精细的权限管理,确保只有授权的用户和服务能够访问特定的资源。

    • • 操作示例:创建一个 Role 对象来定义一组权限,然后创建一个 RoleBinding 对象将这个角色绑定到一个用户或服务账户。

apiVersion: rbac.authorization.k8s.io/v1
kind: Role
metadata:
  name: my-role
  namespace: my-n


http://www.kler.cn/news/310814.html

相关文章:

  • 使用blender快速制作metahuman面部以及身体绑定教程
  • 【C语言】分支和循环专题应用
  • QT<24> Qt和windows中获取CPU序列号号以及主板序列号
  • 为大模型提供服务需要多少 GPU 显存?
  • centos7如何连接网络 centos7wifi连接
  • QQ频道机器人零基础开发详解(基于QQ官方机器人文档)[第五期]
  • 笔记:简要介绍WPF中FormattedText是什么,主要有什么功能
  • 普罗米修斯监控
  • 计算机网络 --- Socket 编程
  • open-webui安装部署
  • linux-网络管理-网络服务管理 17 / 100
  • 【C++语言】C/C++内存管理
  • ElK 8 收集 Nginx 日志
  • Java从入门到精通学习框架(二)
  • 计算机毕业设计污染物文献共享数据库管理系统网站开发与实现
  • CRM如何助力科技服务机构突破业务瓶颈?
  • VTD激光雷达(1)——01_OptiX_RayTracing-笔记
  • Newtonsoft.Json对象转JSON字符串全集
  • 解决已经安装过requests库,却导入不了
  • 规律题总结(持续更新)
  • 大数据Flink(一百一十八):Flink SQL水印操作(Watermark)
  • CISP备考题库(四)
  • Docker日志管理
  • 爆改YOLOv8|使用MobileNetV4替换yolov8的Backbone
  • 53.【C语言】 字符函数和字符串函数(strcmp函数)
  • 温故--javaweb
  • MySQL行锁的实践
  • Gitee丝滑版本:成功在新电脑添加新文件
  • WebGL中的纹理映射:为虚拟世界穿上华丽的外衣
  • KNN算法与实战案例详解