为集群超额配置节点容量

本页面指导您在 Kubernetes 集群中配置节点超额配置。节点超额配置是一种主动预留集群计算资源一部分的策略。这种预留有助于减少在扩容事件期间调度新 Pod 所需的时间,从而提高集群对流量或工作负载需求突然激增的响应能力。

通过保持一些未使用的容量,您可以确保在创建新 Pod 时立即提供资源,从而防止它们在集群扩容时进入挂起状态。

开始之前

  • 您需要有一个 Kubernetes 集群,并且必须配置 kubectl 命令行工具以与您的集群通信。
  • 您应该已经对部署、Pod 优先级PriorityClasses有了基本的了解。
  • 您的集群必须设置一个根据需求管理节点的自动扩缩器

创建 PriorityClass

首先,为占位符 Pod 定义一个 PriorityClass。首先,创建一个具有负优先级值的 PriorityClass,您稍后会将其分配给占位符 Pod。稍后,您将设置一个使用此 PriorityClass 的 Deployment。

apiVersion: scheduling.k8s.io/v1
kind: PriorityClass
metadata:
  name: placeholder # these Pods represent placeholder capacity
value: -1000
globalDefault: false
description: "Negative priority for placeholder pods to enable overprovisioning."

然后创建 PriorityClass

kubectl apply -f https://k8s.io/examples/priorityclass/low-priority-class.yaml

接下来,您将定义一个使用负优先级 PriorityClass 并运行最小容器的 Deployment。当您将其添加到集群时,Kubernetes 会运行这些占位符 Pod 来保留容量。任何时候出现容量短缺时,控制平面都会选择这些占位符 Pod 中的一个作为第一个抢占的候选者。

运行请求节点容量的 Pod

查看示例清单

apiVersion: apps/v1
kind: Deployment
metadata:
  name: capacity-reservation
  # You should decide what namespace to deploy this into
spec:
  replicas: 1
  selector:
    matchLabels:
      app.kubernetes.io/name: capacity-placeholder
  template:
    metadata:
      labels:
        app.kubernetes.io/name: capacity-placeholder
      annotations:
        kubernetes.io/description: "Capacity reservation"
    spec:
      priorityClassName: placeholder
      affinity: # Try to place these overhead Pods on different nodes
                # if possible
        podAntiAffinity:
          preferredDuringSchedulingIgnoredDuringExecution:
          - labelSelector:
              matchLabels:
                app: placeholder
            topologyKey: "kubernetes.io/hostname"
      containers:
      - name: pause
        image: registry.k8s.io/pause:3.6
        resources:
          requests:
            cpu: "50m"
            memory: "512Mi"
          limits:
            memory: "512Mi"

为占位符 Pod 选择命名空间

您应该选择或创建一个占位符 Pod 将进入的命名空间

创建占位符部署

基于该清单创建一个 Deployment

# Change the namespace name "example"
kubectl --namespace example apply -f https://k8s.io/examples/deployments/deployment-with-capacity-reservation.yaml

调整占位符资源请求

配置占位符 Pod 的资源请求和限制,以定义您要维护的超额配置资源量。此预留可确保为新 Pod 保留特定数量的 CPU 和内存。

要编辑 Deployment,请修改 Deployment 清单文件中的 resources 部分以设置适当的请求和限制。您可以在本地下载该文件,然后使用您喜欢的任何文本编辑器对其进行编辑。

您也可以使用 kubectl 编辑 Deployment

kubectl edit deployment capacity-reservation

例如,要在 5 个占位符 Pod 中总共预留 0.5 个 CPU 和 1GiB 内存,请按如下方式定义单个占位符 Pod 的资源请求和限制

  resources:
    requests:
      cpu: "100m"
      memory: "200Mi"
    limits:
      cpu: "100m"

设置所需的副本数

计算总预留资源

例如,5 个副本每个预留 0.1 个 CPU 和 200MiB 内存
预留的 CPU 总量:5 × 0.1 = 0.5(在 Pod 规范中,您将写入数量 500m
预留的总内存:5 × 200MiB = 1GiB(在 Pod 规范中,您将写入 1 Gi

要扩展 Deployment,请根据集群的大小和预期工作负载调整副本数

kubectl scale deployment capacity-reservation --replicas=5

验证扩缩

kubectl get deployment capacity-reservation

输出应反映更新的副本数

NAME                   READY   UP-TO-DATE   AVAILABLE   AGE
capacity-reservation   5/5     5            5           2m

下一步

  • 了解有关PriorityClasses及其如何影响 Pod 调度的更多信息。
  • 探索节点自动扩缩,以根据工作负载需求动态调整集群的大小。
  • 了解Pod 抢占,这是 Kubernetes 处理资源争用的关键机制。同一页面涵盖了_驱逐_,这与占位符 Pod 方法的相关性较小,但也是 Kubernetes 在资源争用时做出反应的一种机制。
上次修改时间:2024 年 11 月 18 日下午 5:22 PST:调整节点容量超额配置任务 (d34ee98252)