kubevirt使用noVNC访问虚拟机开机自启解决办法

1.介绍:

NoVNC是一个使用WebSockets和HTML5 Canvas的javaScript VNC客户端。我们提供websocker api用于VNC访问下:

APISERVER:/apis/subresources.kubevirt.io/v1alpha3/namespaces/NAMESPACE/virtualmachineinstances/VM/vnc

但是我们不能直接访问VNC api,因为需要授权,为了解决这个问题,我们提供了一个组件kubectl proxy用来提供一个授权的vnc访问,我们命名这个组件virtVNC。

2.准备Docker镜像:

        根据自己kubernetes的版本下载对应的镜像:Docker Hub,镜像执行如下:SHI 

# cat Dockerfile 
FROM bitnami/kubectl:1.21.2

CMD ["proxy", "--accept-hosts=^.*$", "--address=[::]", "--api-prefix=/k8s/"]

         使用docker build构建docker镜像:

docker build -t quay.io/samblade/virtvnc:v0.1 .

3.使用kubernetes来部署virtvnc:

# cat virtvnc.yaml 
apiVersion: v1
kind: ServiceAccount
metadata:
  name: virtvnc
  namespace: kubevirt
---
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
  name: virtvnc
subjects:
- kind: ServiceAccount
  name: virtvnc
  namespace: kubevirt
roleRef:
  kind: ClusterRole
  name: virtvnc
  apiGroup: rbac.authorization.k8s.io
---
kind: ClusterRole
apiVersion: rbac.authorization.k8s.io/v1
metadata:
  name: virtvnc
rules:
- apiGroups:
  - subresources.kubevirt.io
  resources:
  - virtualmachineinstances/console
  - virtualmachineinstances/vnc
  verbs:
  - get
- apiGroups:
  - kubevirt.io
  resources:
  - virtualmachines
  - virtualmachineinstances
  - virtualmachineinstancepresets
  - virtualmachineinstancereplicasets
  - virtualmachineinstancemigrations
  verbs:
  - get
  - list
  - watch
---
apiVersion: v1
kind: Service
metadata:
  labels:
    app: virtvnc
  name: virtvnc
  namespace: kubevirt
spec:
  ports:
  - port: 8001
    protocol: TCP
    targetPort: 8001
    nodePort: 8001
  selector:
    app: virtvnc
  type: NodePort
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: virtvnc
  namespace: kubevirt
spec:
  replicas: 1
  selector:
    matchLabels:
      app: virtvnc
  template:
    metadata:
      labels:
        app: virtvnc
    spec:
      serviceAccountName: virtvnc
      nodeSelector:
        node-role.kubernetes.io/master: ''
      tolerations: 
      - key: "node-role.kubernetes.io/master"
        operator: "Equal"
        value: ""
        effect: "NoSchedule"
      containers:
      - name: virtvnc
        image: quay.io/samblade/virtvnc:v0.1
        imagePullPolicy: IfNotPresent
        livenessProbe:
          httpGet:
            port: 8001
            path: /
            scheme: HTTP
          failureThreshold: 30
          initialDelaySeconds: 30
          periodSeconds: 10
          successThreshold: 1
          timeoutSeconds: 5

        执行如下命令:

        kubectl apply -f virtvnc.yaml

        查看virtvnc服务端口:

        kubectl get svc -n kubevirt virtvnc 

参考:

https://kubevirt.io/2019/Access-Virtual-Machines-graphic-console-using-noVNC.html

<think>我们正在处理一个关于在KubeVirt环境中配置Rook Ceph作为存储后端的问题。KubeVirt允许在Kubernetes上运行虚拟机,而Rook Ceph提供持久化存储。我们需要结合两者。步骤大致如下:1.部署Rook Ceph Operator2.创建Ceph集群3.创建存储类(StorageClass)以提供动态配置4.配置KubeVirt使用该存储类注意:引用[1]和[2]提供了Rook Ceph的基本信息,但我们需要具体到KubeVirt的配置。详细步骤:1.部署Rook Ceph Operator首先,我们需要部署RookCeph Operator。这可以通过应用Rook提供的yaml文件实现。2.创建Ceph集群在Operator运行后,创建Ceph集群的自定义资源(CR)。这通常包括指定存储节点、磁盘等。3.创建存储类创建CephBlockPool和StorageClass。KubeVirt通常使用块存储(RBD)作为虚拟机的磁盘,因此我们需要创建基于RBD的存储类。4.配置KubeVirt使用该存储类在KubeVirt中,我们需要创建一个StorageProfile资源,将我们创建的存储类设置为默认存储类,或者指定给虚拟机使用。具体操作:步骤1:部署RookCephOperator参考Rook官方文档,下载部署文件并应用:```bashgitclone --single-branch --branch v1.8.10 https://github.com/rook/rook.gitcd rook/deploy/exampleskubectlcreate-fcrds.yaml -f common.yaml -f operator.yaml```步骤2:创建Ceph集群在`deploy/examples`目录下,编辑`cluster.yaml`文件,配置Ceph集群。然后应用:```bashkubectl create-fcluster.yaml```步骤3:创建CephBlockPool和StorageClass创建BlockPool:```bashkubectl create-fdeploy/examples/csi/rbd/storageclass.yaml```注意:这个storageclass.yaml文件已经包含了创建CephBlockPool和StorageClass。步骤4:配置KubeVirt使用该存储类首先,确保KubeVirt已经安装。然后,我们可以通过创建StorageProfile来指定存储类。查看现有的StorageProfile:```bashkubectlget storageprofiles```通常,KubeVirt会为每个存储类自动创建一个StorageProfile。我们可以编辑这个StorageProfile,将其设置为默认:```bashkubectl editstorageprofile<storageclass-name>```在spec中设置`default:true`。或者,在创建虚拟机时,在虚拟机配置中明确指定数据卷的存储类。示例虚拟机配置片段(使用存储类):```yamlapiVersion: kubevirt.io/v1kind: VirtualMachinemetadata:name:testvmspec:dataVolumeTemplates:-metadata:name: testvm-dvspec:pvc:accessModes:-ReadWriteOnceresources:requests:storage:10GistorageClassName: rook-ceph-block#这里使用前面创建的存储类source:registry:url: docker://kubevirt/fedora-cloud-container-disk-demo:latesttemplate:spec:domain:devices:disks:- disk:bus:virtioname:datavolumediskresources:requests:memory:1024Mvolumes:- dataVolume:name: testvm-dvname: datavolumedisk```注意事项:-确保Ceph集群健康。-确保存储类可用。-在虚拟机使用时,建议使用`ReadWriteOnce`访问模式。引用说明:[^1]介绍了Rook和Ceph的基本概念,以及Rook在Kubernetes中部署Ceph的优势。[^2]简要说明了Ceph的架构。因此,我们按照上述步骤即可在KubeVirt使用Rook Ceph作为存储后端。生成相关问题:1.如何验证Rook Ceph集群的健康状态?2.在KubeVirt使用RookCeph存储时,如何调整虚拟机磁盘的性能?3.如何扩展RookCeph集群的存储容量?4.在KubeVirt中,如何将现有虚拟机迁移到Rook Ceph存储上?</think>### 在 KubeVirt 中配置 Rook Ceph 作为存储后端的步骤 #### 1. **部署 Rook Ceph Operator** - 创建 Rook 的命名空间和 Operator: ```bash kubectl create namespace rook-ceph kubectl apply -f https://github.com/rook/rook/releases/download/v1.8.10/common.yaml kubectl apply -f https://github.com/rook/rook/releases/download/v1.8.10/crds.yaml kubectl apply -f https://github.com/rook/rook/releases/download/v1.8.10/operator.yaml ``` #### 2. **创建 Ceph 集群** - 部署 Ceph 集群配置文件(`cluster.yaml`): ```yaml apiVersion: ceph.rook.io/v1 kind: CephCluster metadata: name: rook-ceph namespace: rook-ceph spec: dataDirHostPath: /var/lib/rook mon: count: 3 cephVersion: image: ceph/ceph:v16.2.7 storage: useAllNodes: true useAllDevices: true ``` 应用配置: ```bash kubectl apply -f cluster.yaml ``` - 验证集群状态: ```bash kubectl -n rook-ceph get pods # 所有 Pod 应为 Running 状态 kubectl -n rook-ceph exec -it deploy/rook-ceph-tools -- ceph status ``` #### 3. **配置 CephBlockPool 和 StorageClass** - 创建块存储池(`pool.yaml`): ```yaml apiVersion: ceph.rook.io/v1 kind: CephBlockPool metadata: name: kubevirt-pool namespace: rook-ceph spec: replicated: size: 3 ``` - 创建 StorageClass(`storageclass.yaml`): ```yaml apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: rook-ceph-block provisioner: rook-ceph.rbd.csi.ceph.com parameters: clusterID: rook-ceph pool: kubevirt-pool imageFormat: "2" reclaimPolicy: Delete ``` 应用配置: ```bash kubectl apply -f pool.yaml kubectl apply -f storageclass.yaml ``` #### 4. **配置 KubeVirt 使用 Rook Ceph** - 在虚拟机(VM)配置中引用 StorageClass: ```yaml apiVersion: kubevirt.io/v1 kind: VirtualMachine metadata: name: vm-with-ceph spec: dataVolumeTemplates: - metadata: name: ceph-disk spec: pvc: storageClassName: rook-ceph-block # 引用创建的 StorageClass accessModes: [ReadWriteOnce] resources: requests: storage: 10Gi source: blank: {} template: spec: domain: devices: disks: - name: disk0 disk: bus: virtio resources: requests: memory: 1Gi volumes: - name: disk0 dataVolume: name: ceph-disk ``` #### 5. **验证功能** - 创建虚拟机并检查存储: ```bash kubectl apply -f vm.yaml kubectl get dv # 查看 DataVolume 状态(应为 Succeeded) kubectl get pvc # 确认 PVC 已绑定 ``` ### 关键配置说明 1. **存储类型** KubeVirt 通过 `DataVolume` 动态创建 PVC,Rook Ceph 的 CSI 驱动会自动将 PVC 映射到 Ceph RBD 镜像[^1]。 2. **性能优化** 可在 `CephBlockPool` 中调整副本数(`size`)或用 CRUSH 规则优化数据分布[^2]。 3. **高可用性** Ceph MON 守护进程确保集群高可用,OSD 守护进程处理数据存储[^2]。 ### 注意事项 - **节点要求**:工作节点需有未使用的磁盘供 Ceph OSD 使用。 - **网络**:确保 Pod 网络支持 RDMA(可选,提升性能)。 - **KubeVirt 版本**:需使用 v0.41+ 以兼容 CSI 存储。 通过以上步骤,Rook Ceph 可为 KubeVirt 虚拟机提供持久化块存储,支持动态卷供应和快照功能。 --- ### 相关问题 1. 如何监控 Rook Ceph 集群的性能和健康状态? 2. 在 KubeVirt使用 Rook Ceph 时,如何实现虚拟机磁盘的快照和克隆? 3. Rook Ceph 与 KubeVirt 集成时常见的故障排查方法有哪些? 4. 如何扩展 Rook Ceph 集群的存储容量? [^1]: 云原生存储 Rook 部署 Ceph [^2]: 使用 Rook+Ceph 在 Kubernetes 上作持久存储
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值