ceph集群的介绍和搭建

ceph是什么?
是一个能提供文件存储、块存储、对象存储的可无限扩容的分布式存储集群。
ceph的组成
由RADOS、CEPH FS、RBD、RADOSGW、LIBRADOS组成。
RADOS是底层原生数据的存储引擎,高可用、负载均衡、都是由这一层来进行存储的。
RADOSGW是基于restful协议的网关,支持S3和swif,也就是支持对象存储。
LIBRADOS供开发人员使用的接口。
CEPH FS通过linux客户端和fuse提供文件系统。
RBD通过linux客户端和QEMU/KVM提供一个分布式的块设备。

ceph集群
集群组件
主要有OSD、Monitor两中守护进程,。
ceph OSD(object storage device):存储数据、处理数据,通过检测其他osd守护进程的心跳向monitor提供监测信息。
ceph Monitor:是一个监视器,监视ceph集群状态和维护集群中的各种关系。

准备三台机器192.168.100.101、192.168.100.102、192.168.100.103,每台需要加一块磁盘,不用分区。
1、更改主机名

hostnamectl set-hostname --static ceph1
hostnamectl set-hostname --static ceph2
hostnamectl set-hostname --static ceph3

添加域名解析

vim /etc/hosts

在这里插入图片描述
2、关闭防火墙、selinux、iptables -F

3、时间同步

systemctl start ntpd && systemctl enable ntpd

4、准备好ceph的yum源(所以机器都要准备)

vim /etc/yum.repos.d/ceph.repo

[Ceph]
name=Ceph packages for b a s e a r c h b a s e u r l = h t t p s : / / m i r r o r . t u n a . t s i n g h u a . e d u . c n / c e p h / r p m − m i m i c / e l 7 / basearch baseurl=https://mirror.tuna.tsinghua.edu.cn/ceph/rpm-mimic/el7/ basearchbaseurl=https://mirror.tuna.tsinghua.edu.cn/ceph/rpmmimic/el7/basearch
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://mirror.tuna.tsinghua.edu.cn/ceph/keys/release.asc
priority=1
[Ceph-noarch]
name=Ceph noarch packages
baseurl=https://mirror.tuna.tsinghua.edu.cn/ceph/rpm-mimic/el7/noarch
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://mirror.tuna.tsinghua.edu.cn/ceph/keys/release.asc
priority=1
[ceph-source]
name=Ceph source packages
baseurl=https://mirror.tuna.tsinghua.edu.cn/ceph/rpm-mimic/el7/SRPMS
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://mirror.tuna.tsinghua.edu.cn/ceph/keys/release.asc
priority=1

开始正式部署集群
1、ssh免密
在ceph1上进行

ssh-keygen
 ssh-copy-id ceph1
 ssh-copy-id ceph2
 ssh-copy-id ceph3

2、在ceph1上安装部署工具

 yum install ceph-deploy -y

3、安装ceph、ceph-radosgw(所以节点都安装)

yum install ceph ceph-radosgw -y
ceph -v

在这里插入图片描述
4、在ceph1上创建集群

mkdir /etc/ceph && cd /etc/ceph

创建一个集群

ceph-deploy new ceph1

会生成三个文件

ceph.conf 集群配置文件
ceph-deploy-ceph.log 使用ceph-deploy部署的日志记录
ceph.mon.keyring mon的验证key文件

5、创建mon

vim /etc/ceph/ceph.conf

public network = 192.168.100.0/24 ceph机器所在的网段

部署mon管理节点

ceph-deploy mon create-initial

将配置文件信息同步到所有节点

ceph-deploy admin ceph1 ceph2 ceph3

查看集群状态

ceph -s

在这里插入图片描述
6、创建mgr
ceph luminous版本中新增加了一个组件:Ceph Manager Daemon,简称ceph-mgr。
该组件的主要作用是分担和扩展monitor的部分功能,减轻monitor的负担,让更好地管理ceph存储系统。

小结: 把mon比作管理者,mgr就是mon职责分出来的另一个管理者

创建一个mgr

ceph-deploy mgr create ceph1

添加多个mgr

ceph-deploy mgr create ceph2
ceph-deploy mgr create ceph3

7、创建osd,每个ceph集群至少1个mon、2个osd
查看节点上的磁盘

ceph-deploy disk list ceph1
ceph-deploy disk list ceph2
ceph-deploy disk list ceph3

在这里插入图片描述
创建osd

ceph-deploy osd create --data /dev/sdb ceph1
ceph-deploy osd create --data /dev/sdb ceph2
ceph-deploy osd create --data /dev/sdb ceph3

查看集群信息

ceph -s

在这里插入图片描述
到这里集群就算是搭建成功了。

集群扩容方法

假设再加一个新的集群节点ceph4
1, 主机名配置和绑定
2, 在node4上 yum install ceph ceph-radosgw -y 安装软件
3, 在部署节点ceph1上同步配置文件给ceph4. ceph-deploy admin ceph4
4, 按需求选择在ceph4上添加mon或mgr或osd等

<think>好的,用户想在CentOS 7.9上搭建Ceph集群,需要详细的部署配置指南。首先,我需要回忆之前提供的引用内容,看看有没有相关的步骤。 引用[2]提到在CentOS7上使用ceph-deploy工具安装配置Ceph,包括安装ceph-deploy的步骤。引用[4]提到复制配置文件密钥环到客户端,这可能涉及集群节点的配置。引用[3]展示了编译运行Java客户端,但用户目前可能不需要这部分,重点在部署集群。 用户需要的是从零开始的步骤,可能包括环境准备、安装工具、配置节点、部署集群等。需要确保步骤适用于CentOS 7.9,注意可能的依赖版本问题。此外,引用中的命令可能需要调整,比如节点名称网络配置。 还要考虑用户可能的后续问题,比如常见错误处理、性能优化或验证集群状态的方法。需要分步骤详细说明,确保用户能逐步操作,同时注意命令的正确性权限问题,比如密钥环的权限设置。最后,生成相关问题帮助用户深入理解部署过程。</think>### CentOS 7.9 部署 Ceph 集群的步骤 #### 1. 环境准备 - **节点规划**:至少需要1个管理节点(如 `ceph-admin`)多个存储节点(如 `ceph-node1`、`ceph-node2`)。所有节点需配置SSH免密登录。 - **系统要求**: - CentOS 7.9 系统,关闭 SELinux 防火墙: ```bash sudo setenforce 0 sudo systemctl stop firewalld sudo systemctl disable firewalld ``` - 同步所有节点时间(使用 NTP 或 Chrony)[^2]。 #### 2. 安装 Ceph 部署工具 在管理节点安装 `ceph-deploy`: ```bash sudo yum install -y epel-release sudo yum install -y ceph-deploy python-pip ``` #### 3. 初始化集群配置 在管理节点创建工作目录并初始化集群: ```bash mkdir ceph-cluster && cd ceph-cluster ceph-deploy new ceph-node1 ceph-node2 # 指定初始监控节点 ``` 编辑生成的 `ceph.conf` 文件,添加公共网络配置: ```ini public network = 192.168.1.0/24 ``` #### 4. 安装 Ceph 组件 在所有节点安装 Ceph 基础包: ```bash ceph-deploy install --release nautilus ceph-admin ceph-node1 ceph-node2 ``` > 注:若使用较新版本,需替换 `nautilus` 为对应版本号。 #### 5. 部署监控节点 在指定节点部署监控服务: ```bash ceph-deploy mon create-initial ceph-deploy admin ceph-admin ceph-node1 ceph-node2 # 分发配置文件[^4] ``` #### 6. 添加 OSD 存储 为每个存储节点分配磁盘(如 `/dev/sdb`)并创建 OSD: ```bash ceph-deploy osd create ceph-node1 --data /dev/sdb ceph-deploy osd create ceph-node2 --data /dev/sdb ``` #### 7. 部署 MDS(可选) 若需使用 CephFS,需部署元数据服务: ```bash ceph-deploy mds create ceph-node1 ``` #### 8. 验证集群状态 ```bash ssh ceph-node1 sudo ceph -s ``` 正常状态应显示 `HEALTH_OK`,且 OSD 数量与配置一致[^1]。 #### 9. 挂载 CephFS(示例) 客户端节点挂载文件系统: ```bash sudo mount -t ceph ceph-node1:6789:/ /mnt/cephfs -o name=admin,secretfile=/etc/ceph/ceph.client.admin.keyring ``` --- ###
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值