k8s从私有仓库拉取镜像

目录

1,修改k8s各个节点集群的文件daemon.json

 2,在对应的命名空间下,创建secret

 3,编写命令配置文件,验证相关操作

4,说明


1,修改k8s各个节点集群的文件daemon.json

vim /etc/docker/daemon.json

增加

"insecure-registries": ["192.168.199.103:5000"]

192.168.199.103:5000 为私有仓库地址

 2,在对应的命名空间下,创建secret

kubectl create secret docker-registry wayne-docker-registry-key \
> --docker-server=192.168.199.103:5000 \
> --docker-username=xxx \
> --docker-password=xxx \
> --docker-email=xxx@xxx.com \
> -n dev

wayne-docker-registry-key为名称

执行成功后,如下图所示

 3,编写命令配置文件,验证相关操作

配置文件示例:sercet-nginx.yaml

apiVersion: apps/v1
kind: Deployment
metadata:
    name: wayne-nginx-deploy
    namespace: dev
spec:
    selector:
        matchLabels:
             app: wayne-nginx
    replicas: 2
    template:
        metadata:
            labels:
                app: wayne-nginx
            namespace: dev
        spec:
            imagePullSecrets:
              - name: wayne-docker-registry-key # 这个是上文生成的key
            containers:
              - name: wanye-name
                image: 192.168.199.103:5000/wayne-nginx:20221016v2
                ports:
                - containerPort: 80

执行kubectl create -f sercet-nginx.yaml后观察pod的情况

 也可以到对应的node节点上执行

docker images

查看是否有镜像

 有就成功了。

4,说明

如果拉不了镜像,就在k8s的每个节点上,执行 docker login的操作,登陆之后就可以拉取镜像了。

### Kubernetes从Harbor镜像时出现CrashLoopBackOff错误的解决方案 当遇到Pod处于`CrashLoopBackOff`状态时,这通常意味着容器启动后不久就崩溃了。对于从Harbor私有仓库镜像的情况,可能涉及多个方面的问题。 #### 1. 检查镜像是否存在并正确标记 确保目标镜像确实存在于Harbor仓库中,并且版本标签无误。如果镜像不存在或标签不匹配,则可能导致无法成功镜像而进入循环重启的状态[^2]。 #### 2. 验证Docker客户端配置 确认已按照规定添加了Docker可信镜像源地址,使得集群内的节点能够识别来自Harbor的自定义域名或IP地址作为合法的镜像来源[^1]。 #### 3. 创建并应用正确的secret 为了使Kubernetes可以认证访问Harbor仓库,在创建Deployment之前应当先设置好相应的秘密对象(Secret),并通过`imagePullSecrets`字段将其关联至对应的Pod模板规格内[^4]: ```yaml apiVersion: v1 kind: Secret metadata: name: regcred data: .dockerconfigjson: <Base64编码后的凭证> type: kubernetes.io/dockerconfigjson --- apiVersion: apps/v1 kind: Deployment spec: template: spec: containers: - name: myapp-container image: "my.harbor.repo/my-app:v1" imagePullSecrets: - name: regcred ``` #### 4. 查看日志排查原因 即使解决了镜像问题,应用程序本身也可能存在缺陷从而引发异常退出。因此建议查看具体的Pod日志来进一步分析根本原因: ```bash kubectl logs pod-name -n namespace ``` 通过上述方法基本能定位并修复由于镜像失败所引起的`CrashLoopBackOff`现象。当然还需要根据实际情况调整相应参数以适应特定环境的要求。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值