默认情况下,K8s集群上的容器对计算资源没有任何限制,可能会导致个别容器资源过大导致影响其他容器正常工作,这时可以使用LimitRange定义容器默认CPU和内存请求值或者最大上限。
LimitRange限制维度:
• 限制容器配置requests.cpu/memory,limits.cpu/memory的最小、最大值
• 限制容器配置requests.cpu/memory,limits.cpu/memory的默认值
• 限制PVC配置requests.storage的最小、最大值
2.4.1 计算资源最大、最小限制:
apiVersion: v1
kind: LimitRange
metadata:
name: cpu-memory-min-max
namespace: test
spec:
limits:
- max: # 容器能设置limit的最大值
cpu: 1
memory: 1Gi
min: # 容器能设置request的最小值
cpu: 200m
memory: 200Mi
type: Container
备注:限制limit对request研究起作用。
2.4.2 计算资源默认值限制:
apiVersion: v1
kind: LimitRange
metadata:
name: cpu-memory-min-max
namespace: test
spec:
limits:
- default:
cpu: 500m #默认的limit
memory: 500Mi
defaultRequest:
cpu: 300m #默认的request
memory: 300Mi
type: Container
2.4.3 存储资源最大、最小限制
apiVersion: v1
kind: LimitRange
metadata:
name: storage-min-max
namespace: test
spec:
limits:
- type: PersistentVolumeClaim
max:
storage: 10Gi
min:
storage: 1Gi
2.4.4 查看限制
kubectl get limits -n test
kubectl describe limits -n test
2.4.5 limits与request特别注意的方面
内存不足时哪个进程会被杀死 在一个超卖的系统,QoS等级决定着哪个容器第一个被杀掉, 这样释放出的资 源可以提供给高优先级的pod使用。 BestEffort等级的pod首先被杀掉, 其次是 Burstable pod, 最后是Guaranteed pod。 Guaranteedpod只有在系统进程 需要内存时才会被杀掉。BestEffort等级通常指未作CPU/内存限制的pod.
如果设置了limits requests默认与limits相等。
节点资源综合
kubectl describe node $(kubectl get nodes | grep worker | awk '{print $1}') | grep -A7 "Allocatable"
可分配的pod的资源值
kubectl describe node $(kubectl get nodes | grep worker | awk '{print $1}') | grep -A10 "Capacity"
目前资源使用情况
kubectl describe node $(kubectl get nodes | grep worker | awk '{print $1}') | grep -A10 "Allocated"
限制容器的本地容量: ephemeral-storage: 5Gi