ceph集群搭建

一、前言

     本次搭建ceph集群,使用centos7版本的系统,最高支持ceph版本为15.2.13,如需更高的版本需要使用centos8版本以上的系统,使用cephadm进行搭建,Cephadm 是一个用于部署、管理和监控 Ceph 集群的工具,它是 Ceph 社区官方提供的一种部署方式。Cephadm 的目标是简化 Ceph 集群的部署和管理,并提供了一种简单而灵活的方式来管理 Ceph 集群

主机信息

主机ip服务
ceph0110.1.60.126mon、osd、mgr、mds
ceph0210.1.60.127mon、osd、mgr、mds
ceph0310.1.60.128mon、osd、mds
ceph0410.1.60.129

osd

ceph04后面作为新增节点加入集群 

二、搭建

以下操作在每个节点都需执行

关于系统优化

参考:centos系统优化_root soft nproc unlimited-优快云博客

配置主机名称

hostnamectl set-hostname ceph01

配置主机解析

vi /etc/hosts

10.1.60.126 ceph01
10.1.60.127 ceph02
10.1.60.128 ceph03
10.1.60.129 ceph04

安装docker

参考:部署docker-ce_安装部署docker-ce-优快云博客

配置ceph yum源

vi  /etc/yum.repos.d/ceph.repo 

[Ceph]
name=Ceph
baseurl=https://mirrors.aliyun.com/ceph/rpm-15.2.9/el7/x86_64/
enabled=1
gpgcheck=0

[Ceph-noarch]
name=Ceph noarch packages
baseurl=https://mirrors.aliyun.com/ceph/rpm-15.2.9/el7/noarch/
enabled=1
gpgcheck=0

 以下操作只需要在ceph01节点执行即可

安装cephadm

yum install -y cephadm

创建ceph文件存放目录

mkdir /etc/ceph

安装mon服务

cephadm bootstrap  --mon-ip 10.1.60.126 --allow-fqdn-hostname --initial-dashboard-user admin --initial-dashboard-password 12345678 --dashboard-password-noupdate

正常最后会输出用户名和密码还有url,如果部署dashboard报错的话就手动部署一下

部署dashboard报错的情况下手动执行以下操作

进入ceph集群进行命令行操作
cephadm shell
开启dashboard功能
ceph mgr module enable dashboard
生成dashboard的自签证书
ceph dashboard create-self-signed-cert 
创建dashboard密码文件
vi ceph_password
12345678
指定dashboard的用户名和密码
ceph dashboard set-login-credentials admin -i ceph_password
查看dashboard的访问url
ceph mgr services

通过以上url和用户名密码访问dashboard

 查看拉起的镜像服务

docker ps

部署的过程中还生成了配置文件和密钥文件

ls /etc/ceph 

 由于是cephadm部署的ceph集群,没有安装客户端的情况下只能通过cephadm交互式的方式查看集群信息

cephadm shell
ceph -s

 安装ceph客户端

需要先安装epel,不然会提示没有依赖

yum -y install epel-release
yum -y install ceph-common

安装完成后可以直接使用ceph命令查看集群信息

ceph -s
ceph orch ps

 将ceph集群的公钥分配到其它节点中

ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph02
ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph03
ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph04

在其余节点加入前需要先安装python3,不然会出现报错

yum -y install python3

将其余节点加入到集群中

ceph orch host add ceph02
ceph orch host add ceph03

扩展mon节点数量

ceph orch apply mon ceph01,ceph02,ceph03

指定mgr节点

ceph orch apply mgr ceph01,ceph02

指定osd

查看集群磁盘清单

ceph orch device ls

指定磁盘为osd

ceph orch apply osd --all-available-devices   #指定所有可用磁盘为osd
ceph orch daemon add osd hostname:磁盘路径    #指定单个磁盘为osd
#这里使用指定单个磁盘为osd的方式
for i in ceph01 ceph02 ceph03; do for b in sdb sdc sdd; do ceph orch daemon add osd $i:/dev/$b; done; done

 查看集群信息

ceph -s

 至此ceph集群部署完成

新增ceph04节点,该节点作为单纯的osd节点,即存储节点

因为上面已经分配了集群公钥到ceph04节点就不需要再分配了

ceph orch host add ceph04

查看集群磁盘清单

ceph orch device ls

将ceph04的磁盘指定为osd

ceph orch daemon add osd ceph04:/dev/sdb
ceph orch daemon add osd ceph04:/dev/sdc
ceph orch daemon add osd ceph04:/dev/sdd

通过dashborad查看

 故障测试(这里是创建了存储池并且使用后测试)

将ceph03节点直接关闭模拟故障

关闭后osd会进入in down状态,表明osd还在集群内但是不存活,obeject和pg也会显示有部分不可用状态

 当挂掉的osd为out down状态,表明osd不在集群内不存活,ceph集群会自动重新平衡object和pg,还有存储的值

 

挂掉的ceph03节点恢复后会重新加入集群中

 

<think>好的,用户想在CentOS 7.9上搭建Ceph集群,需要详细的部署和配置指南。首先,我需要回忆之前提供的引用内容,看看有没有相关的步骤。 引用[2]提到在CentOS7上使用ceph-deploy工具安装和配置Ceph,包括安装ceph-deploy的步骤。引用[4]提到复制配置文件和密钥环到客户端,这可能涉及集群节点的配置。引用[3]展示了编译和运行Java客户端,但用户目前可能不需要这部分,重点在部署集群。 用户需要的是从零开始的步骤,可能包括环境准备、安装工具、配置节点、部署集群等。需要确保步骤适用于CentOS 7.9,注意可能的依赖和版本问题。此外,引用中的命令可能需要调整,比如节点名称和网络配置。 还要考虑用户可能的后续问题,比如常见错误处理、性能优化或验证集群状态的方法。需要分步骤详细说明,确保用户能逐步操作,同时注意命令的正确性和权限问题,比如密钥环的权限设置。最后,生成相关问题帮助用户深入理解部署过程。</think>### CentOS 7.9 部署 Ceph 集群的步骤 #### 1. 环境准备 - **节点规划**:至少需要1个管理节点(如 `ceph-admin`)和多个存储节点(如 `ceph-node1`、`ceph-node2`)。所有节点需配置SSH免密登录。 - **系统要求**: - CentOS 7.9 系统,关闭 SELinux 和防火墙: ```bash sudo setenforce 0 sudo systemctl stop firewalld sudo systemctl disable firewalld ``` - 同步所有节点时间(使用 NTP 或 Chrony)[^2]。 #### 2. 安装 Ceph 部署工具 在管理节点安装 `ceph-deploy`: ```bash sudo yum install -y epel-release sudo yum install -y ceph-deploy python-pip ``` #### 3. 初始化集群配置 在管理节点创建工作目录并初始化集群: ```bash mkdir ceph-cluster && cd ceph-cluster ceph-deploy new ceph-node1 ceph-node2 # 指定初始监控节点 ``` 编辑生成的 `ceph.conf` 文件,添加公共网络配置: ```ini public network = 192.168.1.0/24 ``` #### 4. 安装 Ceph 组件 在所有节点安装 Ceph 基础包: ```bash ceph-deploy install --release nautilus ceph-admin ceph-node1 ceph-node2 ``` > 注:若使用较新版本,需替换 `nautilus` 为对应版本号。 #### 5. 部署监控节点 在指定节点部署监控服务: ```bash ceph-deploy mon create-initial ceph-deploy admin ceph-admin ceph-node1 ceph-node2 # 分发配置文件[^4] ``` #### 6. 添加 OSD 存储 为每个存储节点分配磁盘(如 `/dev/sdb`)并创建 OSD: ```bash ceph-deploy osd create ceph-node1 --data /dev/sdb ceph-deploy osd create ceph-node2 --data /dev/sdb ``` #### 7. 部署 MDS(可选) 若需使用 CephFS,需部署元数据服务: ```bash ceph-deploy mds create ceph-node1 ``` #### 8. 验证集群状态 ```bash ssh ceph-node1 sudo ceph -s ``` 正常状态应显示 `HEALTH_OK`,且 OSD 数量与配置一致[^1]。 #### 9. 挂载 CephFS(示例) 客户端节点挂载文件系统: ```bash sudo mount -t ceph ceph-node1:6789:/ /mnt/cephfs -o name=admin,secretfile=/etc/ceph/ceph.client.admin.keyring ``` --- ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值