k8s安装
使用kubeadm安装k8s集群
检查集群状态
# 检查组件状态
kubectl get componentstatus
# 查看集群系统信息
kubectl cluster-info
# 查看核心组件是否正常
kubectl get pod -n kube-system
资源
Nodes
kubectl get nodes # 查看简略信息
kubectl get nodes -o wide # 查看扩展信息
kubectl describe nodes node01 # 查看详细信息
kubectl get nodes node01 -o yaml # 以yaml形式输出
describe可以关注
1.内存、磁盘、PID压力
2.健康状态
3.网络是否可用
4.事件event
Label
1.可控制Pod生命周期
2.对调度产生影响
3.影响Network Policy
kubectl get nodes node01 --show-labels # 查看节点标签
kubectl describe nodes node01 # 可以查看节点标签
kubectl label nodes node01 distype=ssd # 打标签
kubectl label nodes node01 distype- # 删除标签
kubectl label nodes node01 node-role.kuberbetes.io/work= # 声明node1为work角色
Annotation
1.注释性信息,不影响调度
2.可以被程序引用,获取信息
kubectl describe nodes node01 # 可以查看节点注释
kubectl annotate nodes node01 app=test # 添加注释
kubectl annotate nodes node01 app- # 删除注释
Namespaces
kubectl get namespaces # 查看命名空间
kubectl create namespace test # 创建命名空间
kubectl delete namespaces test # 删除命名空间
使用yaml文件创建
API-version:alpha(不推荐),beta(默认),稳定vX(发布)
查看API-version:
kubectl api-versions
kubectl explain namespaces
apiVersion: v1
kind: Namespace
metadata:
name: demo
labels:
app: demo
kubectl create -f my-namespace.yaml # 创建
kubectl delete -f my-namespace.yaml # 删除
Pod
常用命令
k8s资源管理最小单位
kubectl -nkube-system get pod
kubectl -nkube-system get pod --watch
kubectl -nkube-system get pod -o wide
kubectl -nkube-system get pod -o yaml
kubectl -nkube-system get pod -o json
kubectl -nkube-system describe pod demo
kubectl create -f pod.yaml # 创建pod
kubectl delete -f pod.yaml # 删除Pod
kubectl -nkube-system exec -it -c demo-1 bash # 进入容器
kubectl apply -f pod.yaml # 升级
kubectl -nkube-system edit pod demo # 修改pod
kubectl -nkube-system patch pod demo -p '{json}' # 升级
yaml
apiVersion: v1 #指定api版本,此值必须在kubectl apiversion中
kind: Pod #指定创建资源的角色/类型
metadata: #资源的元数据/属性
name: web04-pod #资源的名字,在同一个namespace中必须唯一
labels: #设定资源的标签,详情请见http://blog.youkuaiyun.com/liyingke112/article/details/77482384
k8s-app: apache
version: v1
kubernetes.io/cluster-service: "true"
annotations: #自定义注解列表
- name: String #自定义注解名字
spec:#specification of the resource content 指定该资源的内容
restartPolicy: Always #表明该容器一直运行,默认k8s的策略,在此容器退出后,会立即创建一个相同的容器
nodeSelector: #节点选择,先给主机打标签kubectl label nodes kube-node1 zone=node1
zone: node1
containers:
- name: web04-pod #容器的名字
image: web:apache #容器使用的镜像地址
imagePullPolicy: Never #三个选择Always、Never、IfNotPresent,每次启动时检查和更新(从registery)images的策略,
# Always,每次都检查
# Never,每次都不检查(不管本地是否有)
# IfNotPresent,如果本地有就不检查,如果没有就拉取
command: ['sh'] #启动容器的运行命令,将覆盖容器中的Entrypoint,对应Dockefile中的ENTRYPOINT
args: ["$(str)"] #启动容器的命令参数,对应Dockerfile中CMD参数
env: #指定容器中的环境变量
- name: str #变量的名字
value: "/etc/run.sh" #变量的值
resources: #资源管理,请求请见http://blog.youkuaiyun.com/liyingke112/article/details/77452630
requests: #容器运行时,最低资源需求,也就是说最少需要多少资源容器才能正常运行
cpu: 0.1 #CPU资源(核数),两种方式,浮点数或者是整数+m,0.1=100m,最少值为0.001核(1m)
memory: 32Mi #内存使用量
limits: #资源限制
cpu: 0.5
memory: 32Mi
ports:
- containerPort: 80 #容器开发对外的端口
name: httpd #名称
protocol: TCP
livenessProbe: #pod内容器健康检查的设置,详情请见http://blog.youkuaiyun.com/liyingke112/article/details/77531584
httpGet: #通过httpget检查健康,返回200-399之间,则认为容器正常
path: / #URI地址
port: 80
#host: 127.0.0.1 #主机地址
scheme: HTTP
initialDelaySeconds: 180 #表明第一次检测在容器启动后多长时间后开始
timeoutSeconds: 5 #检测的超时时间
periodSeconds: 15 #检查间隔时间
#也可以用这种方法
#exec: 执行命令的方法进行监测,如果其退出码不为0,则认为容器正常
# command:
# - cat
# - /tmp/health
#也可以用这种方法
#tcpSocket: //通过tcpSocket检查健康
# port: number
lifecycle: #生命周期管理
postStart: #容器运行之前运行的任务
exec:
command:
- 'sh'
- 'yum upgrade -y'
preStop:#容器关闭之前运行的任务
exec:
command: ['service httpd stop']
volumeMounts: #详情请见http://blog.youkuaiyun.com/liyingke112/article/details/76577520
- name: volume #挂载设备的名字,与volumes[*].name 需要对应
mountPath: /data #挂载到容器的某个路径下
readOnly: True
volumes: #定义一组挂载设备
- name: volume #定义一个挂载设备的名字
#meptyDir: {}
hostPath:
path: /opt #挂载设备类型为hostPath,路径为宿主机下的/opt,这里设备类型支持很多种
initContainer
initContainer:与container同级定义,初始化容器操作完成并退出后,主容器才运行。
static pod
static pod:将yaml文件放到默认路径
/etc/kubernetes/manifests下,自动创建pod
特性:崩溃重启
Pod控制器
ReplicaSet
控制副本数量:replicas
deployment
创建无状态应用(自动创建ReplicaSet,控制副本,控制版本)
kubectl run image-nginx --replicas=3 test # 创建deployment
kubectl get deployments
kubectl scale deployment --replicas=1 test # 扩缩容
kubectl delete deployments test # 删除deployment
kubectl rollout history deployment nginx deployment # 查看历史版本
kubectl set image deployment nginx-deployment nginx-container=nginx:latest --record=true # 升级镜像
kubectl rollout undo deployment nginx-deployment --to-revision=1 # 版本回退
DaemonSet
所有节点运行同一个Pod并保证副本数为1
StatefulSet
发布有状态服务:保证Pod的每个副本在整个生命周期中名称不变。
1.持久化存储
2.稳定网络标识
3.有序部署、有序扩展
4.有序收缩
注: 使用yaml创建StatefulSet必须声明ServiceName
Job
一次性任务
restartPolicy: Never/OnFailure
backoffLimit:
删除Job就会删除相关Pod
CronJob
定时任务
删除cronjob会删除job进而删除相关Pod
Service
通过Selector对Pod进行逻辑分组,这一组Pod能被Service访问到
Service分类:
ClusterIP:集群内部访问
NodePort:集群外部可访问
LoadBalancer:向外暴露服务
ExternalName:集群外部服务映射到k8s集群,底层依赖DNS
kube-proxy:负责为Service提供cluster内部的服务发现和负载均衡
iptables模式:
IPVS代理模式:底层为Hash,大量Service时表现出高性能。
ClusterIP
kubectl expose deployment test --type=ClusterIP --port=18080 --target-port=80 # 创建Service
kubectl get service
kubectl get endpoints # 查看逻辑分组
curl <ClusterIP>:port # 访问逻辑分组
Endpoints
ip添加到endpoints的两个条件
1.service的selector与pod的labels保持一直
2.pod状态ready
手动添加endpoints
1.Sevice的yaml中不指定selector
2.定义Endpoint.yaml,手动分组
NodePort
kubectl expose deployment test --type=NodePort--port=18080 --target-port=80 # 创建Service
curl <ClusterIP>:port
curl <NodeIP>:<nodeport>
ExternalIP
对外暴露服务
1.NodePort在所有节点暴露端口,ExternalIP在指定节点暴露端口
2.缺点,指定节点挂掉了,服务就不能访问了
ExternalName
集群外部服务映射到k8s集群,底层依赖DNS
创建service,指定externalName:如www.baidu.com
服务发现DNS
k8s通过DNS实现服务注册和服务发现。
其他应用可以通过Service Name即可访问
ServiceName会解析到ClusterIP或Pod IP
创建Service时指定ClusterIP就会解析到ClusterIP
创建Service时ClusterIP为None(headless Service)就会解析到PodIP
服务发现HostAliases
相比配置/etc/hosts,配置hostAliases,避免pod重新调度信息丢失。
Ingress
用于管理集群中服务的外部访问
Service:四层负载均衡,ip:port进行转发
Ingress:七层负载均衡,对URL、path、SSL进行转发
1.部署ingress-controller(nginx)
2.部署ingress
hostNetWork
指定hostNetWork=true // 直接使用宿主机网络
访问curl url/path
NodePort
不指定hostNetWork
访问curl url:nodeport/path
健康检查
两种探测器:
livenessProbe:探测失败重启
readinessProbe:探测失败NotReady
三种探针:
ExecAction:命令状态码0,诊断成功
TCPSocketAction:端口打开,诊断成功
HTTPGetAction:状态码大于等于200小于400,诊断成功
使用readiness探针结合Service使用,避免流量分发到非健康的Pod上。
数据存储
1.数据持久化到宿主机
2.Pod容器之间共享文件
volume
可以直接在pod中声明挂载volume
pv与pvc
PV:资源对象
PVC:PV的实例化
原理:pod挂载PVC,PVC根据Pod存储空间大小和访问模式寻找合适的PV进行绑定。
访问模式:
RWO:单node读写
ROM:多node只读
RMM:多node读写
pv三种回收策略
1.Retain:保留pv,不可再分配给其他pvc(若想再分配,eidt pv删除数据)
2.Recycle:保留pv,可再分配给其他pvc
3.Delete:删除资源和外部关联的存储资源
pv状态
Avaliable:尚未使用
Bound:已绑定
Released:pvc被删除
Failed:卷自动回收失败
ConfigMap
使用方式:
1.环境变量的方式:envFrom或env
2.volume挂载:
mountPath到目录:容器目录会被清空,只保存挂载文件(优点:configmap更新,pod同步自动更新)
mountPath到文件并指定subPath:可以避免以上问题
Secret
# 加密
echo "asdada" |base64
# 解密
echo "=YANSX" |base64 --decode
使用
1.环境变量
2.volume挂载
EmptyDir
存放临时数据
注意:容器崩溃不会丢失,容器删除才丢失
Pod节点分配
nodeSelector
有匹配的labels就分配,没有匹配的就挂起
Affinity and anti-Affinity
节点亲和(如labels亲和)
硬性要求:不满足不调度
软性要求:满足,权重高的优先调度
偏好要求:满足硬性要求,偏好设置满足优先
Pod亲和(如同一个应用不部署到同一个节点,添加Pod反亲和)
本文介绍了Kubernetes的基础知识,包括k8s安装、资源管理(Nodes、Label、Annotation、Namespaces)、Pod及其控制器(如ReplicaSet、Deployment、StatefulSet等)、Service类型、Ingress、健康检查、数据存储和Pod节点分配策略等核心概念。
579

被折叠的 条评论
为什么被折叠?



