部署ceph mds node

本文介绍了使用ceph-deploy工具创建Ceph MDS节点的过程,包括配置文件冲突处理、服务启动及状态验证等关键步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

deploy ceph mds node
[root@ceph-node1 ceph]# ceph-deploy mds create ceph-node2 ceph-node2 
[ceph_deploy.conf][DEBUG ] found configuration file at: /root/.cephdeploy.conf
[ceph_deploy.cli][INFO  ] Invoked (1.5.31): /usr/bin/ceph-deploy mds create ceph-node2 ceph-node2
[ceph_deploy.cli][INFO  ] ceph-deploy options:
[ceph_deploy.cli][INFO  ]  username                      : None
[ceph_deploy.cli][INFO  ]  verbose                       : False
[ceph_deploy.cli][INFO  ]  overwrite_conf                : False
[ceph_deploy.cli][INFO  ]  subcommand                    : create
[ceph_deploy.cli][INFO  ]  quiet                         : False
[ceph_deploy.cli][INFO  ]  cd_conf                       : <ceph_deploy.conf.cephdeploy.Conf instance at 0x17a4320>
[ceph_deploy.cli][INFO  ]  cluster                       : ceph
[ceph_deploy.cli][INFO  ]  func                          : <function mds at 0x197a2a8>
[ceph_deploy.cli][INFO  ]  ceph_conf                     : None
[ceph_deploy.cli][INFO  ]  mds                           : [('ceph-node2', 'ceph-node2'), ('ceph-node2', 'ceph-node2')]
[ceph_deploy.cli][INFO  ]  default_release               : False
[ceph_deploy.mds][DEBUG ] Deploying mds, cluster ceph hosts ceph-node2:ceph-node2 ceph-node2:ceph-node2
[ceph-node2][DEBUG ] connected to host: ceph-node2 
[ceph-node2][DEBUG ] detect platform information from remote host
[ceph-node2][DEBUG ] detect machine type
[ceph_deploy.mds][INFO  ] Distro info: CentOS Linux 7.3.1611 Core
[ceph_deploy.mds][DEBUG ] remote host will use sysvinit
[ceph_deploy.mds][DEBUG ] deploying mds bootstrap to ceph-node2
[ceph-node2][DEBUG ] write cluster configuration to /etc/ceph/{cluster}.conf
[ceph_deploy.mds][ERROR ] RuntimeError: config file /etc/ceph/ceph.conf exists with different content; use --overwrite-conf to overwrite
[ceph-node2][DEBUG ] connected to host: ceph-node2 
[ceph-node2][DEBUG ] detect platform information from remote host
[ceph-node2][DEBUG ] detect machine type
[ceph_deploy.mds][INFO  ] Distro info: CentOS Linux 7.3.1611 Core
[ceph_deploy.mds][DEBUG ] remote host will use sysvinit
[ceph-node2][DEBUG ] create path if it doesn't exist
[ceph-node2][INFO  ] Running command: ceph --cluster ceph --name client.bootstrap-mds --keyring /var/lib/ceph/bootstrap-mds/ceph.keyring auth get-or-create mds.ceph-node2 osd allow rwx mds allow mon allow profile mds -o /var/lib/ceph/mds/ceph-ceph-node2/keyring
[ceph-node2][INFO  ] Running command: service ceph start mds.ceph-node2
[ceph-node2][DEBUG ] === mds.ceph-node2 === 
[ceph-node2][DEBUG ] Starting Ceph mds.ceph-node2 on ceph-node2...
[ceph-node2][WARNIN] Running as unit ceph-mds.ceph-node2.1496648453.865988091.service.
[ceph-node2][INFO  ] Running command: systemctl enable ceph
[ceph-node2][WARNIN] ceph.service is not a native service, redirecting to /sbin/chkconfig.
[ceph-node2][WARNIN] Executing /sbin/chkconfig ceph on
[ceph_deploy][ERROR ] GenericError: Failed to create 1 MDSs
ceph mds status
[root@ceph-node1 ceph]# ceph mds stat
e5: 1/1/1 up {0=ceph-node2=up:active}

转载于:https://www.cnblogs.com/zhaogaolong/articles/7001371.html

### 部署 CephFS 文件系统的指南 部署 CephFS 文件系统需要经过几个关键步骤,包括创建存储池、创建文件系统以及挂载文件系统。以下是详细的部署指南: #### 1. 创建存储池 在 Ceph 集群中,首先需要创建两个存储池:一个用于元数据(metadata),另一个用于数据(data)。这可以通过以下命令完成[^1]: ```bash ceph osd pool create cephfs_metadata 128 ceph osd pool create cephfs_data 128 ``` 上述命令中,`cephfs_metadata` 和 `cephfs_data` 是存储池的名称,`128` 表示副本数或分片数。 #### 2. 创建文件系统 接下来,使用之前创建的存储池来定义一个新的 CephFS 文件系统。执行以下命令[^1]: ```bash ceph fs new cephfs cephfs_metadata cephfs_data ``` 其中,`cephfs` 是新文件系统的名称,`cephfs_metadata` 是元数据池,`cephfs_data` 是数据池。 可以验证文件系统是否成功创建: ```bash ceph fs ls ``` #### 3. 启动 MDS 服务 CephFS 的元数据服务器(MDS)负责管理文件系统的元数据。可以通过以下方式启动 MDS 服务[^2]: ```bash ceph orch apply mds cephfs --placement="2 storage01 storage02" ``` 此命令会在 `storage01` 和 `storage02` 节点上启动两个 MDS 实例,确保高可用性。 #### 4. 挂载 CephFS 挂载 CephFS 文件系统可以通过多种方式实现,包括通过内核驱动或用户空间工具(如 FUSE)。以下是两种常见的方法[^1]: - **使用内核驱动挂载**: ```bash mkdir /mnt/cephfs mount -t ceph monip:6789:/ /mnt/cephfs -o name=admin,secret=AQATSKZfEabYNhAA7LuFwJvDm1PnambUgA5cqw== ``` 其中,`monip` 是 Ceph 监控节点的 IP 地址,`admin` 是客户端用户名,`AQATSKZfEabYNhAA7LuFwJvDm1PnambUgA5cqw==` 是密钥。 - **使用 FUSE 挂载**: ```bash mkdir /mnt/cephfs ceph-fuse /mnt/cephfs -n client.admin ``` #### 5. 在 Kubernetes 中使用 CephFS 如果需要在 Kubernetes Pod 中使用 CephFS,可以创建一个 `StorageClass` 来动态配置存储资源[^3]。以下是一个示例 YAML 文件: ```yaml apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: cephfs provisioner: rook-ceph.cephfs.csi.ceph.com parameters: clusterID: rook csi.storage.k8s.io/provisioner-secret-name: rook-csi-cephfs-provisioner csi.storage.k8s.io/provisioner-secret-namespace: rook-ceph csi.storage.k8s.io/node-stage-secret-name: rook-csi-cephfs-node csi.storage.k8s.io/node-stage-secret-namespace: rook-ceph reclaimPolicy: Retain allowVolumeExpansion: true mountOptions: - nouid ``` 将该文件保存为 `cephfs-sc.yaml` 并应用: ```bash kubectl apply -f cephfs-sc.yaml ``` #### 6. 安装依赖组件 在部署 Ceph 集群之前,需要确保所有节点已安装必要的依赖组件[^4]。例如,在基于 openEuler 的系统上,可以运行以下命令: ```bash dnf install -y python3 python3-pip tar pip3 install ceph-deploy ``` --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值