Kubernetes(k8s)的Pod资源清单调度Schedule相关属性详细讲解

1. 概述

一个Pod在哪个Node节点上运行,默认是由Scheduler组件采用相应的算法计算出来的

同时kubernetes提供了三大类人工控制的调度方式:

  • 定向调度:NodeName、NodeSelector
  • 亲和性调度:NodeAffinity、PodAffinity、PodAntiAffinity
  • 污点(容忍)调度:Taints、Toleration

2. 定向调度

2.1 概述

利用在Pod上声明nodeName或nodeSelector,将Pod调度到指定的Node节点上。如果目标Node不存在,则Pod运行失败

2.2 nodeName

将Pod调度到指定的name的Node节点上

新建pod-schedule.yaml,内容如下:

[root@k8s-master ~]# cat pod-schedule.yaml 
apiVersion: v1
kind: Pod
metadata:
  name: pod-schedule
  namespace: dev
  labels:
    user: bulut
spec:
  containers:
    - name: nginx-container
      image: nginx:latest
  nodeName: k8s-node1
[root@k8s-master ~]# 

2.3 nodeSelector

通过kubernetes的label-selector机制,将Pod调度到指定标签的Node节点上

首先给k8s-node1节点添加标签,然后查看该节点标签

[root@k8s-master ~]# kubectl label node k8s-node1 nodeEnv=production
node/k8s-node1 labeled
[root@k8s-master ~]#
[root@k8s-master ~]# kubectl get node k8s-node1 --show-labels
NAME        STATUS   ROLES    AGE    VERSION   LABELS
k8s-node1   Ready    <none>   5d8h   v1.24.0   beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=k8s-node1,kubernetes.io/os=linux,nodeEnv=production
[root@k8s-master ~]# 

删除标签使用kubectl label node k8s-node1 nodeEnv-命令

新建pod-schedule.yaml,内容如下:

[root@k8s-master ~]# cat pod-schedule.yaml 
apiVersion: v1
kind: Pod
metadata:
  name: pod-schedule
  namespace: dev
  labels:
    user: bulut
spec:
  containers:
    - name: nginx-container
      image: nginx:latest
  nodeSelector:
    nodeEnv: production
[root@k8s-master ~]# 

3. 亲和性调度(Affinity)

3.1 概述

优先选择满足条件的Node进行调度,如果没有,也可以调度到不满足条件的节点上

主要分为三类:

  • nodeAffinity(node亲和性):Pod优先调度到指定的Node节点
  • podAffinity(pod亲和性):Pod优先调度到指定Pod的拓扑域中。适用于两个频繁交互的Pod,减少网络通信
  • podAntiAffinity(pod反亲和性):Pod不调度到指定Pod的拓扑域中。适用于同一应用的不同副本,将副本分散到不同的Node节点,提高高可用

3.2 nodeAffinity

nodeAffinity的可选配置项:

pod.spec.affinity.nodeAffinity
  requiredDuringSchedulingIgnoredDuringExecution    # Node节点必须满足指定的所有规则才可以,相当于硬限制,类似定向调度
    nodeSelectorTerms                               # 节点选择列表
      - matchExpressions                            # 通过节点标签进行节点选择列表
        - key                                       # 键
          values                                    # 值
          operator                                  # 关系符,支持Exists、DoesNotExist、In、NotIn、Gt、Lt
  preferredDuringSchedulingIgnoredDuringExecution   # 优先调度到满足指定规则的Node,相当于软限制    
    - weight                                        # 优先的权重,在范围1~100
      preference                                    # 一个节点选择器
        matchExpressions                            # 通过节点标签进行节点选择列表
          - key                                     # 键
            values                                  # 值
            operator                                # 关系符,支持Exists、DoesNotExist、In、NotIn、Gt、Lt

关系符的使用说明:

matchExpressions:
  - key: nodeEnv           # 匹配存在标签的key为nodeEnv的节点
    operator: Exists   
  - key: nodeEnv           # 匹配标签的key为nodeEnv, 且value是"xxx"或"yyy"的节点
    operator: In    
    values: ["xxx", "yyy"]
  - key: nodeEnv           # 匹配标签的key为nodeEnv, 且value大于"xxx"的节点
    operator: Gt   
    values: "xxx"

nodeAffinity的注意事项:

  • 如果同时定义了nodeSelector和nodeAffinity,那么必须两个条件都满足,Pod才能运行在指定的Node上
  • 如果nodeAffinity指定了多个nodeSelectorTerms,那么只需要其中一个能够匹配成功即可
  • 如果一个nodeSelectorTerms中有多个matchExpressions,则一个节点必须满足所有的才能匹配成功
  • 如果一个Pod所在的Node在Pod运行期间其标签发生了改变,不再符合该Pod的nodeAffinity的要求,则系统将忽略此变化

3.2.1 requiredDuringSchedulingIgnoredDuringExecution

首先给k8s-node1节点添加标签,然后查看该节点标签

[root@k8s-master ~]# kubectl label node k8s-node1 nodeEnv=production
node/k8s-node1 labeled
[root@k8s-master ~]#

新建pod-schedule.yaml,内容如下:

[root@k8s-master ~]# cat pod-schedule.yaml 
apiVersion: v1
kind: Pod
metadata:
  name: pod-schedule
  namespace: dev
  labels:
    user: bulut
spec:
  containers:
    - name: nginx-container
      image: nginx:latest
  affinity:
    nodeAffinity:
      requiredDuringSchedulingIgnoredDuringExecution:
        nodeSelectorTerms:
          - matchExpressions:
            - key: nodeEnv
              operator: In
              values: ["production", "xxx"]
[root@k8s-master ~]# 

3.2.2 preferredDuringSchedulingIgnoredDuringExecution

首先给k8s-node1节点添加标签,然后查看该节点标签

[root@k8s-master ~]# kubectl label node k8s-node1 nodeEnv=production
node/k8s-node1 labeled
[root@k8s-master ~]#

新建pod-schedule.yaml,内容如下:

[root@k8s-master ~]# cat pod-schedule.yaml 
apiVersion: v1
kind: Pod
metadata:
  name: pod-schedule
  namespace: dev
  labels:
    user: bulut
spec:
  containers:
    - name: nginx-container
      image: nginx:latest
  affinity:
    nodeAffinity:
      preferredDuringSchedulingIgnoredDuringExecution:
        - weight: 1
          preference:
            matchExpressions:
              - key: nodeEnv
                operator: In
                values: ["production", "xxx"] 
[root@k8s-master ~]# 

3.3 podAffinity

以运行的Pod为参照,实现让新创建的Pod和参照的Pod在一个拓扑域

PodAffinity的可选配置项:

pod.spec.affinity.podAffinity
  requiredDuringSchedulingIgnoredDuringExecution  
    - namespaces: ["n1", "n2"]                    # 指定参照pod的namespace列表。默认和新创建的Pod同一Namespace
      topologyKey                                 # 指定调度作用域
      labelSelector                               # 标签选择器
        matchExpressions                          # 通过节点标签进行节点选择列表
          - key                                   # 键
            values                                # 值
            operator                              # 关系符,支持Exists、DoesNotExist、In、NotIn
  preferredDuringSchedulingIgnoredDuringExecution     
    - weight                                      # 优先权重,在范围1~100
      podAffinityTerm                             # 选项
        namespaces: ["n1", "n2"]
        topologyKey
        labelSelector
          matchExpressions 
            - key      
              values   
              operator
         matchLabels 

topologyKey用于指定调度的作用域

  • 如果指定为kubernetes.io/hostname,那就是以Node节点为区分范围
  • 如果指定为beta.kubernetes.io/os,则以Node节点的操作系统类型来区分

3.3.1 requiredDuringSchedulingIgnoredDuringExecution

运行参照的Pod,如下所示:

[root@k8s-master ~]# cat pod-schedule-target.yaml 
apiVersion: v1
kind: Pod
metadata:
  name: pod-schedule-target
  namespace: dev
  labels:
    podEnv: production
spec:
  containers:
    - name: nginx-container
      image: nginx:latest
  nodeName: k8s-node1
[root@k8s-master ~]# 
[root@k8s-master ~]# kubectl apply -f pod-schedule-target.yaml 
pod/pod-schedule-target created
[root@k8s-master ~]# 
[root@k8s-master ~]# kubectl get pod pod-schedule-target -n dev -o wide
NAME                  READY   STATUS    RESTARTS   AGE    IP             NODE        NOMINATED NODE   READINESS GATES
pod-schedule-target   1/1     Running   0          8m2s   10.244.36.85   k8s-node1   <none>           <none>
[root@k8s-master ~]# 

运行新创建的Pod,如下所示:

[root@k8s-master ~]# cat pod-schedule-new.yaml 
apiVersion: v1
kind: Pod
metadata:
  name: pod-schedule-new
  namespace: dev
  labels:
    user: bulut
spec:
  containers:
    - name: nginx-container
      image: nginx:latest
  affinity:
    podAffinity:
      requiredDuringSchedulingIgnoredDuringExecution:
        - namespaces: ["dev"]
          topologyKey: kubernetes.io/hostname
          labelSelector:
            matchExpressions:
              - key: podEnv
                operator: In
                values: ["production", "xxx"]
[root@k8s-master ~]# 
[root@k8s-master ~]# kubectl apply -f pod-schedule-new.yaml 
pod/pod-schedule-new created
[root@k8s-master ~]#
[root@k8s-master ~]# kubectl get pod pod-schedule-new -n dev -o wide
NAME               READY   STATUS    RESTARTS   AGE   IP             NODE        NOMINATED NODE   READINESS GATES
pod-schedule-new   1/1     Running   0          77s   10.244.36.86   k8s-node1   <none>           <none>
[root@k8s-master ~]# 

3.4 podAntiAffinity

以运行的Pod为参照,实现让新创建的Pod和参照的Pod不在一个拓扑域。配置方式和podAffinity一样

3.4.1 requiredDuringSchedulingIgnoredDuringExecution

运行参照的Pod,如下所示:

[root@k8s-master ~]# cat pod-schedule-anti-target.yaml 
apiVersion: v1
kind: Pod
metadata:
  name: pod-schedule-anti-target
  namespace: dev
  labels:
    podEnv: production
spec:
  containers:
    - name: nginx-container
      image: nginx:latest
  nodeName: k8s-node1
[root@k8s-master ~]# 
[root@k8s-master ~]# kubectl apply -f pod-schedule-anti-target.yaml 
pod/pod-schedule-anti-target created
[root@k8s-master ~]#
[root@k8s-master ~]# kubectl get pod pod-schedule-anti-target -n dev -o wide
NAME                       READY   STATUS    RESTARTS   AGE   IP             NODE        NOMINATED NODE   READINESS GATES
pod-schedule-anti-target   1/1     Running   0          50s   10.244.36.88   k8s-node1   <none>           <none>
[root@k8s-master ~]#

运行新创建的Pod,如下所示:

[root@k8s-master ~]# cat pod-schedule-new.yaml 
apiVersion: v1
kind: Pod
metadata:
  name: pod-schedule-new
  namespace: dev
  labels:
    user: bulut
spec:
  containers:
    - name: nginx-container
      image: nginx:latest
  affinity:
    podAntiAffinity:
      requiredDuringSchedulingIgnoredDuringExecution:
        - namespaces: ["dev"]
          topologyKey: kubernetes.io/hostname
          labelSelector:
            matchExpressions:
              - key: podEnv
                operator: In
                values: ["production", "xxx"]
[root@k8s-master ~]# 
[root@k8s-master ~]# kubectl apply -f pod-schedule-new.yaml 
pod/pod-schedule-new created
[root@k8s-master ~]#
[root@k8s-master ~]# kubectl get pod pod-schedule-new -n dev -o wide
NAME               READY   STATUS    RESTARTS   AGE   IP               NODE        NOMINATED NODE   READINESS GATES
pod-schedule-new   1/1     Running   0          25s   10.244.169.162   k8s-node2   <none>           <none>
[root@k8s-master ~]#

4. 污点和容忍

4.1 污点(Taints)

前面的调度方式都是站在Pod的角度上,通过在Pod上添加属性,来确定Pod是否要调度到指定的Node上。其实我们也可以站在Node的角度上,通过在Node上添加污点属性,让Node和Pod之间存在了一种相斥的关系,进而拒绝Pod调度进来,甚至可以将已经存在的Pod驱逐出去

污点的格式为:key=value:effect,key和value是污点的标签。effect描述污点的作用,支持如下三个选项:

  • PreferNoSchedule:kubernetes将尽量避免把Pod调度到具有该污点的Node上,除非没有其他节点可以调度
  • NoSchedule:kubernetes将不会把Pod调度到具有该污点的Node上,但是不会影响当前Node上已经存在的Pod
  • NoExecute:kubernetes将不会把Pod调度到具有该污点的Node上,同时也会将Node上已经存在的Pod驱逐出去

Kubernetes默认会给master节点打上如下两个污点

Taints:             node-role.kubernetes.io/control-plane:NoSchedule
                    node-role.kubernetes.io/master:NoSchedule

4.1.1 污点语法

设置污点

[root@k8s-master ~]# kubectl taint node k8s-node1 nodeEnv=production:NoSchedule
node/k8s-node1 tainted
[root@k8s-master ~]# 

可以通过kubectl describe node k8s-node1命令查看是否已经打上了污点

去除污点:

[root@k8s-master ~]# kubectl taint node k8s-node1 nodeEnv:NoSchedule-
node/k8s-node1 untainted
[root@k8s-master ~]#

去除所有污点:

[root@k8s-master ~]# kubectl taint node k8s-node1 nodeEnv-
node/k8s-node1 untainted
[root@k8s-master ~]# 

4.2 容忍(Toleration)

容忍可以让一个Pod调度到一个有污点的Node上去

通过kubectl explain pod.spec.tolerations命令查看容忍的属性,整理如下:

pod.spec.tolerations
  - key                 # 对应着要容忍的污点的键,空意味着匹配所有的键
    value               # 对应着要容忍的污点的值
    operator            # 匹配key-value的运算符,支持Equal和Exists(默认,只需要对应key,不需要和value对应)
    effect              # 对应污点的effect,这里必须和标记的污点规则相同。空意味着匹配所有影响
    tolerationSeconds   # 容忍时间, 当effect为NoExecute时生效。表示pod在Node上的停留时间

注意如下:

  • 当operator为Equal的时候,如果Node节点有多个Taint,那么Pod每个Taint都需要容忍才能部署上去
  • 当operator为Exists的时候,有如下三种写法:
    • 容忍指定的污点,污点带有指定的effect
tolerations: 
  - key: "xxx" 
    operator: Exists 
    effect: NoExecute 
  • 容忍指定的污点,不考虑具体的effect
tolerations: 
  - key: "xxx" 
    operator: Exists 
  • 容忍一切污点(慎用)
tolerations: 
  - operator: Exists 

4.2.1 tolerations实操

首先给k8s-node1节点添加污点

[root@k8s-master ~]# kubectl taint node k8s-node1 nodeEnv=production:NoSchedule 
node/k8s-node1 tainted
[root@k8s-master ~]#

新建pod-schedule.yaml,内容如下。然后进行pod创建

[root@k8s-master ~]# cat pod-schedule.yaml 
apiVersion: v1
kind: Pod
metadata:
  name: pod-schedule
  namespace: dev
  labels:
    user: bulut
spec:
  containers:
    - name: nginx-container
      image: nginx:latest
  tolerations:
    - key: "nodeEnv"
      operator: Equal
      value: "production"
      effect: NoSchedule
[root@k8s-master ~]# 
[root@k8s-master ~]# kubectl apply -f pod-schedule.yaml 
pod/pod-schedule created
[root@k8s-master ~]# 

查看pod是可以调度到k8s-node1节点上的

[root@k8s-master ~]# kubectl get pod -n dev -o wide
NAME           READY   STATUS    RESTARTS   AGE   IP             NODE        NOMINATED NODE   READINESS GATES
pod-schedule   1/1     Running   0          31s   10.244.36.90   k8s-node1   <none>           <none>
[root@k8s-master ~]#
<think>好的,用户问的是Kubernetes调度Pod时会不会自动识别X86ARM64节点。我之前已经回答过如何确定节点的架构,现在需要进一步解释调度机制。首先,我得回忆K8s调度原理,默认情况下调度器是不会自动区分架构的,除非有特定的配置。 用户可能是在部署多架构集群时遇到了问题,比如镜像不兼容。他们可能希望Pod能自动调度到对应架构的节点上,避免因为架构不匹配导致容器启动失败。这时候需要说明K8s本身不会自动处理,但可以通过节点亲和性或者污点与容忍度来实现。 需要提到的点包括:默认行为、节点标签的作用、如何利用节点选择器或亲和性规则来约束调度。还要提到社区的多架构方案,比如使用manifest lists或docker的--platform参数。可能用户不太清楚这些机制,需要详细但简洁的解释。 另外,用户可能想知道如果镜像支持多架构,K8s是否能自动选择节点。这时候需要解释镜像的manifest机制,以及kubelet如何根据节点架构拉取正确的镜像。但调度器本身还是需要依赖标签匹配,所以即使镜像支持多架构,仍需正确的调度策略。 需要确保回答结构清晰,分点说明,给出示例命令,比如如何添加节点选择器到Pod的YAML中。还要提醒用户注意旧版本新版本标签的差异,以及常见的架构标识符是否正确。最后总结最佳实践,确保用户理解如何正确配置以实现自动调度。</think>Kubernetes **不会自动识别架构调度**,但可以通过配置实现精准调度。以下是多架构场景下的调度机制解决方案: --- ### 一、默认调度行为 1. **无限制调度** 如果 Pod 未设置架构限制,调度器可能将 x86 镜像调度到 ARM 节点(或反之),导致容器启动失败 *典型报错*:`exec format error`(架构不匹配) --- ### 二、强制精准调度的 3 种方式 #### 方法 1:节点选择器(NodeSelector) ```yaml # pod.yaml 示例 spec: nodeSelector: kubernetes.io/arch: "arm64" # 强制调度到 ARM 节点 ``` #### 方法 2:节点亲和性(NodeAffinity) ```yaml # 优先调度到 ARM,若无则选择 x86 affinity: nodeAffinity: preferredDuringSchedulingIgnoredDuringExecution: - weight: 80 preference: matchExpressions: - key: kubernetes.io/arch operator: In values: [arm64] - weight: 20 preference: matchExpressions: - key: kubernetes.io/arch operator: In values: [amd64] ``` #### 方法 3:污点与容忍(Taints/Tolerations) - 给 ARM 节点打污点: `kubectl taint nodes arm-node arch=arm64:NoSchedule` - Pod 配置容忍: ```yaml tolerations: - key: "arch" operator: "Equal" value: "arm64" effect: "NoSchedule" ``` --- ### 三、自动化多架构方案(推荐) #### 方案 1:多架构镜像(Multi-arch Images) - 使用 Docker Manifest 创建多架构镜像清单 ```bash docker buildx build --platform linux/amd64,linux/arm64 -t myapp:latest . docker push myapp:latest ``` - Kubelet 自动拉取匹配当前节点的架构镜像 *原理*:节点自动添加 `kubernetes.io/arch` 标签,镜像拉取时自动匹配架构 #### 方案 2:使用社区工具 - **Krew-arch** 插件:自动为 DaemonSet 生成多架构配置 - **Kubectl-node-shell**:直接检查节点架构是否与 Pod 匹配 --- ### 四、验证命令 ```bash # 查看节点架构分布 kubectl get nodes -L kubernetes.io/arch # 检查 Pod 实际调度节点 kubectl get pod -o wide kubectl describe pod <pod-name> | grep Node-Selectors ``` --- ### 关键总结 | 场景 | 推荐方案 | 优点 | |--------------------------|----------------------------|-------------------------------| | 单一架构集群 | 无需特殊配置 | 简单直接 | | 混合架构+同镜像多版本 | 节点选择器 + 多架构镜像 | 灵活可控 | | 大规模混合架构 | 污点隔离 + 自动扩缩容 | 资源利用率高 | 通过合理使用标签系统多架构镜像,可实现 **"一次构建,多架构运行"** 的云原生部署体验。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值