kubelet 源码分析:statusManager 和 probeManager

本文深入剖析了kubelet中的statusManager和probeManager的工作原理。statusManager负责维护和更新pod的状态信息,而probeManager则用于监控容器的健康状况,并在状态变化时通知statusManager更新状态。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

kubelet 源码分析:statusManager 和 probeManager

在 kubelet 初始化的时候,会创建 statusManagerprobeManager,两者都和 pod 的状态有关系,因此我们放到一起来讲解。

statusManager 负责维护状态信息,并把 pod 状态更新到 apiserver,但是它并不负责监控 pod 状态的变化,而是提供对应的接口供其他组件调用,比如 probeManagerprobeManager 会定时去监控 pod 中容器的健康状况,一旦发现状态发生变化,就调用 statusManager 提供的方法更新 pod 的状态。

klet.statusManager = status.NewManager(kubeClient, klet.podManager)
klet.probeManager = prober.NewManager(
        klet.statusManager,
        klet.livenessManager,
        klet.runner,
        containerRefManager,
        kubeDeps.Recorder)

StatusManager

statusManager 对应的代码在 pkg/kubelet/status/status_manager.go 文件中,

type PodStatusProvider interface {
    GetPodStatus(uid types.UID) (api.PodStatus, bool)
}

type Manager interface {
    PodStatusProvider

    Start()

    SetPodStatus(pod *api.Pod, status api.PodStatus)
    SetContainerReadiness(podUID types.UID, containerID kubecontainer.ContainerID, ready bool)
    TerminatePod(pod *api.Pod)
    RemoveOrphanedStatuses(podUIDs map[types.UID]bool)
}

这个接口的方法可以分成三组:获取某个 pod 的状态、后台运行 goroutine 执行同步工作、修改 pod 的状态。修改状态的方法有多个,每个都有不同的用途:

SetPodStatus:如果 pod 的状态发生了变化,会调用这个方法,把新状态更新到 apiserver,一般在 kubelet 维护 pod 生命周期的时候会调用
SetContainerReadiness:如果健康检查发现 pod 中容器的健康状态发生变化,会调用这个方法,修改 pod 的健康状态
TerminatePod:kubelet 在删除 pod 的时候,会调用这个方法,把 pod 中所有的容器设置为 terminated 状态
RemoveOrphanedStatuses:删除孤儿 pod,直接把对应的状态数据从缓存中删除即可

Start() 方法是在 kubelet 运行的时候调用的,它会启动一个 goroutine 执行更新操作:

const syncPeriod = 10 * time.Second

func (m *manager) Start() {
    ......
    glog.Info("Starting to sync pod status with apiserver")
    syncTicker := time.Tick(syncPeriod)
    // syncPod and syncBatch share the same go routine to avoid sync races.
    go wait.Forever(func() {
        select {
        case syncRequest := <-m.podStatusChannel:
            m.syncPod(syncRequest.podUID, syncRequest.status)
        case <-syncTicker:
            m.syncBatch()
        }
    }, 0)
}

这个 goroutine 就能不断地从两个 channel 监听数据进行处理:syncTicker 是个定时器,也就是说它会定时保证 apiserver 和自己缓存的最新 pod 状态保持一致;podStatusChannel 是所有 pod 状态更新发送到的地方,调用方不会直接操作这个 channel,而是通过调用上面提到的修改状态的各种方法,这些方法内部会往这个 channel 写数据。

m.syncPod 根据参数中的 pod 和它的状态信息对 apiserver 中的数据进行更新,如果发现 pod 已经被删除也会把它从内部数据结构中删除。

ProbeManager

probeManager 检测 pod 中容器的健康状态,目前有两种 probe:readiness 和 liveness。readinessProbe 检测容器是否可以接受请求,如果检测结果失败,则将其从 service 的 endpoints 中移除,后续的请求也就不会发送给这个容器;livenessProbe 检测容器是否存活,如果检测结果失败,kubelet 会杀死这个容器,并重启一个新的(除非 RestartPolicy 设置成了 Never)。

并不是所有的 pod 中的容器都有健康检查的探针,如果没有,则不对容器进行检测,默认认为容器是正常的。在每次创建新 pod 的时候,kubelet 都会调用 probeManager.AddPod(pod) 方法,它对应的实现在 pkg/kubelet/prober/prober_manager.go 文件中:

func (m *manager) AddPod(pod *api.Pod) {
    m.workerLock.Lock()
    defer m.workerLock.Unlock()

    key := probeKey{podUID: pod.UID}
    for _, c := range pod.Spec.Containers {
        key.containerName = c.Name

        if c.ReadinessProbe != nil {
            key.probeType = readiness
            if _, ok := m.workers[key]; ok {
                glog.Errorf("Readiness probe already exists! %v - %v",
                    format.Pod(pod), c.Name)
                return
            }
            w := newWorker(m, readiness, pod, c)
            m.workers[key] = w
            go w.run()
        }

        if c.LivenessProbe != nil {
            key.probeType = liveness
            if _, ok := m.workers[key]; ok {
                glog.Errorf("Liveness probe already exists! %v - %v",
                    format.Pod(pod), c.Name)
                return
            }
            w := newWorker(m, liveness, pod, c)
            m.workers[key] = w
            go w.run()
        }
    }
}

遍历 pod 中的容器,如果其定义了 readiness 或者 liveness,就创建一个 worker,并启动一个 goroutine 在后台运行这个 worker。

pkg/kubelet/prober/worker.go:

func (w *worker) run() {
    probeTickerPeriod := time.Duration(w.spec.PeriodSeconds) * time.Second
    probeTicker := time.NewTicker(probeTickerPeriod)

    defer func() {
        probeTicker.Stop()
        if !w.containerID.IsEmpty() {
            w.resultsManager.Remove(w.containerID)
        }

        w.probeManager.removeWorker(w.pod.UID, w.container.Name, w.probeType)
    }()

    time.Sleep(time.Duration(rand.Float64() * float64(probeTickerPeriod)))

probeLoop:
    for w.doProbe() {
        // Wait for next probe tick.
        select {
        case <-w.stopCh:
            break probeLoop
        case <-probeTicker.C:
            // continue
        }
    }
}

func (w *worker) doProbe() (keepGoing bool) {
    defer func() { recover() }() 
    defer runtime.HandleCrash(func(_ interface{}) { keepGoing = true })

    // pod 没有被创建,或者已经被删除了,直接跳过检测,但是会继续检测
    status, ok := w.probeManager.statusManager.GetPodStatus(w.pod.UID)
    if !ok {
        glog.V(3).Infof("No status for pod: %v", format.Pod(w.pod))
        return true
    }

    // pod 已经退出(不管是成功还是失败),直接返回,并终止 worker
    if status.Phase == api.PodFailed || status.Phase == api.PodSucceeded {
        glog.V(3).Infof("Pod %v %v, exiting probe worker",
            format.Pod(w.pod), status.Phase)
        return false
    }

    // 容器没有创建,或者已经删除了,直接返回,并继续检测,等待更多的信息
    c, ok := api.GetContainerStatus(status.ContainerStatuses, w.container.Name)
    if !ok || len(c.ContainerID) == 0 {
        glog.V(3).Infof("Probe target container not found: %v - %v",
            format.Pod(w.pod), w.container.Name)
        return true 
    }

    // pod 更新了容器,使用最新的容器信息
    if w.containerID.String() != c.ContainerID {
        if !w.containerID.IsEmpty() {
            w.resultsManager.Remove(w.containerID)
        }
        w.containerID = kubecontainer.ParseContainerID(c.ContainerID)
        w.resultsManager.Set(w.containerID, w.initialValue, w.pod)
        w.onHold = false
    }

    if w.onHold {
        return true
    }

    if c.State.Running == nil {
        glog.V(3).Infof("Non-running container probed: %v - %v",
            format.Pod(w.pod), w.container.Name)
        if !w.containerID.IsEmpty() {
            w.resultsManager.Set(w.containerID, results.Failure, w.pod)
        }
        // 容器失败退出,并且不会再重启,终止 worker
        return c.State.Terminated == nil ||
            w.pod.Spec.RestartPolicy != api.RestartPolicyNever
    }

    // 容器启动时间太短,没有超过配置的初始化等待时间 InitialDelaySeconds
    if int32(time.Since(c.State.Running.StartedAt.Time).Seconds()) < w.spec.InitialDelaySeconds {
        return true
    }

    // 调用 prober 进行检测容器的状态
    result, err := w.probeManager.prober.probe(w.probeType, w.pod, status, w.container, w.containerID)
    if err != nil {
        return true
    }

    if w.lastResult == result {
        w.resultRun++
    } else {
        w.lastResult = result
        w.resultRun = 1
    }

    // 如果容器退出,并且没有超过最大的失败次数,则继续检测
    if (result == results.Failure && w.resultRun < int(w.spec.FailureThreshold)) ||
        (result == results.Success && w.resultRun < int(w.spec.SuccessThreshold)) {
        return true
    }

    // 保存最新的检测结果
    w.resultsManager.Set(w.containerID, result, w.pod)

    if w.probeType == liveness && result == results.Failure {
        // 容器 liveness 检测失败,需要删除容器并重新创建,在新容器成功创建出来之前,暂停检测
        w.onHold = true
    }

    return true
}

每次检测的时候都会用 w.resultsManager.Set(w.containerID, result, w.pod) 来保存检测结果,resultsManager 的代码在 pkg/kubelet/prober/results/results_manager.go:

func (m *manager) Set(id kubecontainer.ContainerID, result Result, pod *api.Pod) {
    if m.setInternal(id, result) {
        m.updates <- Update{id, result, pod.UID}
    }
}

func (m *manager) setInternal(id kubecontainer.ContainerID, result Result) bool {
    m.Lock()
    defer m.Unlock()
    prev, exists := m.cache[id]
    if !exists || prev != result {
        m.cache[id] = result
        return true
    }
    return false
}

func (m *manager) Updates() <-chan Update {
    return m.updates
}
它把结果保存在缓存中,并发送到 m.updates 管道。对于 liveness 来说,它的管道消费者是 kubelet,还记得 syncLoopIteration 中的这段代码逻辑吗?

case update := <-kl.livenessManager.Updates():
        if update.Result == proberesults.Failure {
            // The liveness manager detected a failure; sync the pod.
            pod, ok := kl.podManager.GetPodByUID(update.PodUID)
            if !ok {
                // If the pod no longer exists, ignore the update.
                glog.V(4).Infof("SyncLoop (container unhealthy): ignore irrelevant update: %#v", update)
                break
            }
            glog.V(1).Infof("SyncLoop (container unhealthy): %q", format.Pod(pod))
            handler.HandlePodSyncs([]*api.Pod{pod})
        }
因为 liveness 关系者 pod 的生死,因此需要 kubelet 的处理逻辑。而 readiness 即使失败也不会重新创建 pod,它的处理逻辑是不同的,它的处理代码同样在 pkg/kubelet/prober/prober_manager.go:

func (m *manager) Start() {
    go wait.Forever(m.updateReadiness, 0)
}

func (m *manager) updateReadiness() {
    update := <-m.readinessManager.Updates()

    ready := update.Result == results.Success
    m.statusManager.SetContainerReadiness(update.PodUID, update.ContainerID, ready)
}

proberManager 启动的时候,会运行一个 goroutine 定时读取 readinessManager 管道中的数据,并根据数据调用 statusManager 去更新 apiserver 中 pod 的状态信息。负责 Service 逻辑的组件获取到了这个状态,就能根据不同的值来决定是否需要更新 endpoints 的内容,也就是 service 的请求是否发送到这个 pod。

具体执行检测的代码在 pkg/kubelet/prober/prober.go 文件中,它会根据不同的 prober 方法(exec、HTTP、TCP)调用对应的处理逻辑,而这些具体的逻辑代码是在 pkg/probe/ 文件夹中,三种方法的实现都不复杂,就不再详细解释了。

原文地址
http://cizixs.com/2017/06/12/kubelet-source-code-analysis-part4-status-manager

[root@k8snode01-49 bin]# systemctl status kubelet # 查看运行状态 ● kubelet.service - kubelet: The Kubernetes Node Agent Loaded: loaded (/usr/lib/systemd/system/kubelet.service; enabled; vendor preset: disabled) Drop-In: /usr/lib/systemd/system/kubelet.service.d └─10-kubeadm.conf Active: active (running) since 三 2025-06-25 17:07:03 CST; 7min ago Docs: https://kubernetes.io/docs/ Main PID: 15576 (kubelet) Tasks: 14 Memory: 30.0M CGroup: /system.slice/kubelet.service └─15576 /usr/bin/kubelet --bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf --config=/var/lib/kubelet/config.yaml --contai... 6月 25 17:14:25 k8snode01-49 kubelet[15576]: E0625 17:14:25.611440 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:25 k8snode01-49 kubelet[15576]: E0625 17:14:25.712048 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:25 k8snode01-49 kubelet[15576]: E0625 17:14:25.812741 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:25 k8snode01-49 kubelet[15576]: E0625 17:14:25.913020 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.024133 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.124389 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.224745 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.325352 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.426141 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.526814 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" [root@k8snode01-49 bin]# journalctl -xeu kubelet 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.325352 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.426141 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.526814 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.635436 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.736500 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.837486 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.938137 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.997608 15576 remote_runtime.go:222] "RunPodSandbox from runtime service failed" err="rpc error: code = Unknown desc = failed to 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.997657 15576 kuberuntime_sandbox.go:71] "Failed to create sandbox for pod" err="rpc error: code = Unknown desc = failed to get 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.997677 15576 kuberuntime_manager.go:772] "CreatePodSandbox for pod failed" err="rpc error: code = Unknown desc = failed to get 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:26.997721 15576 pod_workers.go:965] "Error syncing pod, skipping" err="failed to \"CreatePodSandbox\" for \"kube-controller-manage 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.039080 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.139677 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.240528 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.340706 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.441376 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.542175 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.642549 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.743424 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.844051 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.944536 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.045155 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.145533 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.245835 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.346226 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.446390 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.547045 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.547045 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.647785 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.748016 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.848328 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.949244 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:29 k8snode01-49 kubelet[15576]: E0625 17:14:29.031502 15576 kubelet.go:2373] "Container runtime network not ready" networkReady="NetworkReady=false reason:NetworkPluginNotRea 6月 25 17:14:29 k8snode01-49 kubelet[15576]: E0625 17:14:29.049821 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:29 k8snode01-49 kubelet[15576]: E0625 17:14:29.151914 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:29 k8snode01-49 kubelet[15576]: E0625 17:14:29.253839 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:29 k8snode01-49 kubelet[15576]: E0625 17:14:29.354434 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:29 k8snode01-49 kubelet[15576]: E0625 17:14:29.455443 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" [root@k8snode01-49 bin]# systemctl status kubelet # 查看运行状态 ● kubelet.service - kubelet: The Kubernetes Node Agent Loaded: loaded (/usr/lib/systemd/system/kubelet.service; enabled; vendor preset: disabled) Drop-In: /usr/lib/systemd/system/kubelet.service.d └─10-kubeadm.conf Active: active (running) since 三 2025-06-25 17:07:03 CST; 7min ago Docs: https://kubernetes.io/docs/ Main PID: 15576 (kubelet) Tasks: 14 Memory: 30.0M CGroup: /system.slice/kubelet.service └─15576 /usr/bin/kubelet --bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf --config=/var/lib/kubelet/config.yaml --contai... 6月 25 17:14:25 k8snode01-49 kubelet[15576]: E0625 17:14:25.611440 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:25 k8snode01-49 kubelet[15576]: E0625 17:14:25.712048 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:25 k8snode01-49 kubelet[15576]: E0625 17:14:25.812741 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:25 k8snode01-49 kubelet[15576]: E0625 17:14:25.913020 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.024133 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.124389 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.224745 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.325352 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.426141 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.526814 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" [root@k8snode01-49 bin]# journalctl -xeu kubelet 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.325352 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.426141 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.526814 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.635436 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.736500 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.837486 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.938137 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.997608 15576 remote_runtime.go:222] "RunPodSandbox from runtime service failed" err="rpc error: code = Unknown desc = failed to 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.997657 15576 kuberuntime_sandbox.go:71] "Failed to create sandbox for pod" err="rpc error: code = Unknown desc = failed to get 6月 25 17:14:26 k8snode01-49 kubelet[15576]: E0625 17:14:26.997677 15576 kuberuntime_manager.go:772] "CreatePodSandbox for pod failed" err="rpc error: code = Unknown desc = failed to get 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:26.997721 15576 pod_workers.go:965] "Error syncing pod, skipping" err="failed to \"CreatePodSandbox\" for \"kube-controller-manage 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.039080 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.139677 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.240528 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.340706 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.441376 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.542175 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.642549 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.743424 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.844051 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:27 k8snode01-49 kubelet[15576]: E0625 17:14:27.944536 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.045155 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.145533 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.245835 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.346226 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.446390 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.547045 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.547045 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.647785 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.748016 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.848328 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:28 k8snode01-49 kubelet[15576]: E0625 17:14:28.949244 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:29 k8snode01-49 kubelet[15576]: E0625 17:14:29.031502 15576 kubelet.go:2373] "Container runtime network not ready" networkReady="NetworkReady=false reason:NetworkPluginNotRea 6月 25 17:14:29 k8snode01-49 kubelet[15576]: E0625 17:14:29.049821 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:29 k8snode01-49 kubelet[15576]: E0625 17:14:29.151914 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:29 k8snode01-49 kubelet[15576]: E0625 17:14:29.253839 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:29 k8snode01-49 kubelet[15576]: E0625 17:14:29.354434 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found" 6月 25 17:14:29 k8snode01-49 kubelet[15576]: E0625 17:14:29.455443 15576 kubelet.go:2448] "Error getting node" err="node \"k8snode01-49\" not found"
最新发布
06-26
<think>我们正在处理用户在使用`kubeadminit`初始化Kubernetes集群时遇到的超时问题。根据错误信息,控制平面启动超时,并且kubelet报告了`Errorgettingnode``Failedtocreatesandboxforpod`等错误。我们将按照以下步骤进行排查解决:###步骤1:检查kubelet状态日志首先,我们需要检查kubelet服务的状态日志,以确定具体错误原因。```bashsystemctlstatuskubelet#查看kubelet运行状态journalctl-ukubelet-xef#查看kubelet详细日志,重点关注错误信息```在日志中,我们可能会发现以下常见问题:-镜像拉取失败(由于网络问题或镜像仓库不可用)-容器运行时(如Docker或containerd)未正常运行-节点资源不足(内存、CPU、磁盘)-网络配置问题(如cgroup驱动不匹配、防火墙阻止端口)###步骤2:检查容器运行时状态Kubernetes依赖于容器运行时(如Docker、containerd)来管理容器。确保容器运行时已启动并正常运行:```bashsystemctlstatusdocker#如果使用Docker#或systemctlstatuscontainerd#如果使用containerd```检查是否有容器运行时的错误日志。###步骤3:检查控制平面组件的容器状态使用容器运行时的命令行工具检查控制平面组件(kube-apiserver,kube-controller-manager,kube-scheduler,etcd)的容器是否正常运行:```bashdockerps-a|grep-E'kube-apiserver|kube-controller-manager|kube-scheduler|etcd'#或使用crictl(如果使用containerd)crictlps-a|grep-E'kube-apiserver|kube-controller-manager|kube-scheduler|etcd'```如果发现容器处于非运行状态(Exited状态),查看其日志:```bashdockerlogs<容器ID>#或crictllogs<容器ID>```###步骤4:常见问题及解决方案####问题1:镜像拉取失败由于网络问题,可能无法从默认仓库拉取镜像。我们已经指定了阿里云镜像仓库,但可能仍需要手动拉取镜像。**解决方案**:手动拉取所需镜像```bashkubeadmconfigimagespull\--image-repositoryregistry.cn-hangzhou.aliyuncs.com/google_containers\--kubernetes-versionv1.25.0```####问题2:容器运行时配置问题Kubernetes与容器运行时的cgroup驱动不一致(Docker使用`cgroupfs`,而kubelet默认使用`systemd`)。**解决方案**:确保容器运行时kubelet使用相同的cgroup驱动。1.修改Docker的cgroup驱动为`systemd`(如果使用Docker):```bashcat<<EOF|sudotee/etc/docker/daemon.json{"exec-opts":["native.cgroupdriver=systemd"]}EOFsystemctlrestartdocker```2.修改kubelet的cgroup驱动(如果已初始化过kubeadm,需要重置后重新配置):在`kubeadminit`时可以通过配置文件指定kubelet的cgroup驱动,或者使用以下方式:```bashkubeadminit...--config=kubeadm-config.yaml```其中`kubeadm-config.yaml`内容包含:```yamlapiVersion:kubeadm.k8s.io/v1beta3kind:InitConfigurationnodeRegistration:criSocket:unix:///var/run/containerd/containerd.sock#根据实际容器运行时调整kubeletExtraArgs:cgroup-driver:systemd#与容器运行时一致---#其他配置...```####问题3:防火墙或端口冲突确保所需端口(6443、10250等)已打开,并且没有其他进程占用。**解决方案**:```bash#检查端口占用sudoss-tulnp|grep-E'6443|10250'#开放防火墙端口(如果使用firewalld)sudofirewall-cmd--permanent--add-port={6443,2379-2380,10250,10251,10252}/tcpsudofirewall-cmd--reload```####问题4:节点资源不足确保节点满足Kubernetes的最低资源要求(至少2CPU、2GB内存)。###步骤5:重置集群并重新初始化如果以上步骤无法解决问题,我们可以重置集群并重新初始化。```bash#重置集群kubeadmreset-f#清理残留文件rm-rf/etc/cni/net.d/etc/kubernetes//var/lib/etcd//var/lib/kubelet#清理iptables规则iptables-F&&iptables-tnat-F&&iptables-tmangle-F&&iptables-X#重启kubeletsystemctlrestartkubelet```然后重新运行`kubeadminit`命令(注意:确保已经解决了之前发现的问题):```bashkubeadminit\--apiserver-advertise-address=192.168.199.149\--control-plane-endpoint=cluster-endpoint\--image-repositoryregistry.cn-hangzhou.aliyuncs.com/google_containers\--kubernetes-versionv1.25.0\--service-cidr=10.96.0.0/12\--pod-network-cidr=172.20.0.0/16```###步骤6:安装网络插件初始化成功后,必须安装网络插件(如Calico)才能使Pod之间通信。```bash#安装Calico(注意pod-network-cidr与初始化时指定的CIDR一致)kubectlapply-fhttps://docs.projectcalico.org/manifests/calico.yaml```###步骤7:验证集群状态```bashkubectlgetpods-nkube-systemkubectlgetnodes```###相关问题1.如何解决Kubernetes节点`NotReady`状态问题?2.如何更新Kubernetes集群证书以避免过期问题?3.如何配置Kubernetes使用私有镜像仓库?4.如何诊断修复Calico网络插件导致的Pod网络不通问题?希望以上步骤能帮助您成功初始化Kubernetes集群。如果问题仍然存在,请提供kubelet日志的详细错误信息以便进一步分析。</think>### Kubernetes 集群初始化超时问题分析与解决 您的 `kubeadm init` 失败主要涉及两个关键错误: 1. **控制平面启动超时**:`timed out waiting for the condition` 2. **kubelet 报错**:`Error getting node` `Failed to create sandbox for pod` 以下是系统化的解决方案: --- ### 一、核心问题诊断 #### 1. **检查 kubelet 状态与日志** ```bash systemctl status kubelet # 检查服务状态 journalctl -u kubelet -f --since "5 minutes ago" | grep -i -E "error|failed" # 关键错误过滤 ``` 重点关注: - `Failed to create sandbox for pod` → 容器运行时问题 - `Error getting node` → 节点注册失败 - `cgroup` 相关错误 → 系统配置问题 #### 2. **检查容器运行时状态** ```bash # Docker 运行时检查 sudo systemctl status docker docker info | grep -i cgroup # 确认 cgroup 驱动 # Containerd 运行时检查 sudo systemctl status containerd containerd config dump | grep cgroup ``` #### 3. **检查控制平面组件** ```bash # 查看未启动的组件 crictl ps -a | grep -E 'kube-apiserver|kube-controller|kube-scheduler|etcd' | grep -v Running # 检查组件日志 crictl logs <容器ID> # 替换为故障容器ID ``` --- ### 二、根本原因与解决方案 #### 🐋 原因1:容器运行时配置不兼容 (最常见) **现象**:`Failed to create sandbox for pod` **解决**:统一 kubelet 容器运行时的 cgroup 驱动 ```bash # 步骤1: 修改 Docker 配置 (如使用 Docker) sudo tee /etc/docker/daemon.json <<EOF { "exec-opts": ["native.cgroupdriver=systemd"] } EOF # 步骤2: 修改 kubelet 配置 sudo tee /etc/sysconfig/kubelet <<EOF KUBELET_EXTRA_ARGS="--cgroup-driver=systemd" EOF # 步骤3: 重启服务 sudo systemctl daemon-reload sudo systemctl restart docker kubelet ``` #### 🔥 原因2:残留配置冲突 **现象**:`Using existing` 证书提示 **解决**:彻底清理旧配置 ```bash sudo kubeadm reset -f sudo rm -rf /etc/kubernetes/ /var/lib/etcd /var/lib/kubelet sudo iptables -F && sudo iptables -t nat -F sudo ipvsadm --clear ``` #### 🌐 原因3:网络插件未预装 **现象**:控制平面组件无法通信 **解决**:**先安装 CNI 插件再初始化** ```bash # 安装 containernetworking 插件 CNI_VERSION="v1.3.0" sudo mkdir -p /opt/cni/bin curl -L "https://github.com/containernetworking/plugins/releases/download/${CNI_VERSION}/cni-plugins-linux-amd64-${CNI_VERSION}.tgz" | sudo tar -C /opt/cni/bin -xz ``` #### 🔒 原因4:防火墙/端口冲突 ```bash # 开放必要端口 sudo firewall-cmd --permanent --add-port={6443,2379-2380,10250,10251,10252}/tcp sudo firewall-cmd --reload # 检查端口占用 sudo ss -tulnp | grep -E '6443|2379' ``` --- ### 三、安全初始化流程 ```bash # 1. 清理环境 sudo kubeadm reset -f sudo rm -rf /etc/kubernetes /var/lib/etcd # 2. 安装 CNI 插件 (必须!) curl -L https://github.com/containernetworking/plugins/releases/download/v1.3.0/cni-plugins-linux-amd64-v1.3.0.tgz | sudo tar -C /opt/cni/bin -xz # 3. 创建初始化配置文件 cat <<EOF | tee kubeadm-config.yaml apiVersion: kubeadm.k8s.io/v1beta3 kind: InitConfiguration nodeRegistration: criSocket: "unix:///var/run/containerd/containerd.sock" # 按实际运行时修改 kubeletExtraArgs: cgroup-driver: "systemd" --- apiVersion: kubeadm.k8s.io/v1beta3 kind: ClusterConfiguration imageRepository: registry.cn-hangzhou.aliyuncs.com/google_containers kubernetesVersion: v1.25.0 controlPlaneEndpoint: "cluster-endpoint:6443" networking: podSubnet: "172.20.0.0/16" serviceSubnet: "10.96.0.0/12" EOF # 4. 初始化集群 sudo kubeadm init --config=kubeadm-config.yaml --upload-certs --v=5 ``` --- ### 四、初始化后关键步骤 ```bash # 1. 配置 kubectl mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config # 2. 安装网络插件 (Calico 示例) kubectl apply -f https://raw.githubusercontent.com/projectcalico/calico/v3.25.0/manifests/calico.yaml # 3. 验证节点状态 watch kubectl get nodes -o wide # 等待状态变为 Ready ``` > **关键提示**:90% 的初始化超时由 cgroup 驱动不匹配或 CNI 插件缺失导致[^2]。使用配置文件可避免参数传递错误。 --- ### 相关问题 1. 如何诊断 Kubernetes 节点 `NotReady` 状态的具体原因? 2. 如何修复 `kubelet` 与容器运行时的 CRI 接口不兼容问题? 3. 如何为 Kubernetes 配置离线镜像仓库以加速部署? 4. 如何解决 Calico 网络插件导致的 `IPAM` 地址分配错误?
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值