2021-06-26 calico-node-xxx pod 状态反复CrashLoopBackOff

本文记录了在k8s集群中遇到的calico-node Pod状态反复出现CrashLoopBackOff的问题。通过检查pod event、logs及节点端口占用,发现127.0.0.1:9099端口冲突。尝试kill相关进程,但效果不明显。进一步检查kubelet和containerd状态后,最终通过删除并重建calico-node容器解决了问题,恢复正常运行。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

[root@k8s-master ~]# kubectl get pods -n kube-system -owide
NAME                                       READY   STATUS             RESTARTS   AGE    IP               NODE         NOMINATED NODE   READINESS GATES
calico-kube-controllers-7f4f5bf95d-pvvt9   1/1     Running            26         16d    10.244.169.129   k8s-node2    <none>           <none>
calico-node-6qcv4                          1/1     Running            1          16d    192.168.32.171   k8s-master   <none>           <none>
calico-node-dncv8                          1/1     Running            1          16d    192.168.32.173   k8s-node2    <none>           <none>
calico-node-sgkn2                          0/1     CrashLoopBackOff   80         16d    192.168.32.172   k8s-node1    <none>           <none>
coredns-7f89b7bc75-2cf7q                   1/1     Running            0          16d    10.244.36.74     k8s-node1    <none>           <none>
coredns-7f89b7bc75-494l7                   1/1     Running            1          16d    10.244.169.130   k8s-node2    <none>           <none>
etcd-k8s-master                            1/1     Running            1          16d    192.168.32.171   k8s-master   <none>           <none>
kube-apiserver-k8s-master                  1/1     Running            2          16d    192.168.32.171   k8s-master   <none>           <none>
kube-controller-manager-k8s-master         1/1     Running            0          133m   192.168.32.171   k8s-ma
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值