Centos搭建ceph+++二、准备工作

本文详细介绍了一套针对Ceph集群的网络配置方案,包括各节点的网卡设置、主机名与域名解析、防火墙及SELinux的关闭等步骤,确保了Ceph集群稳定运行的基础环境。

二、搭建ceph准备工作


设置网卡:

admin-node为例:

外部网络:

vi /etc/sysconfig/network-scripts/ifcfg-eno16777736

TYPE=Ethernet
BOOTPROTO=static
DEFROUTE=yes
PEERDNS=yes
PEERROUTES=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
IPV6_FAILURE_FATAL=no
NAME=eno16777736
DEVICE=eno16777736
ONBOOT=yes
IPADDR=192.168.200.40
NETMASK=255.255.255.0
GATEWAY=192.168.200.1
DNS1=114.114.114.114


与openstack通信网络(只弄ceph可以不要):

vi /etc/sysconfig/network-scripts/ifcfg-eno33554960

TYPE=Ethernet
BOOTPROTO=static
DEFROUTE=yes
PEERDNS=yes
PEERROUTES=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
IPV6_FAILURE_FATAL=no
NAME=eno33554960
DEVICE=eno33554960
ONBOOT=yes
IPADDR=192.168.100.40
NETMASK=255.255.255.0
GATEWAY=192.168.100.1


ceph管理网咯:

vi /etc/sysconfig/network-scripts/ifcfg-eno50332184

TYPE=Ethernet
BOOTPROTO=static
DEFROUTE=yes
PEERDNS=yes
PEERROUTES=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
IPV6_FAILURE_FATAL=no
NAME=eno50332184
DEVICE=eno50332184
ONBOOT=yes
IPADDR=10.0.0.40
NETWORK=255.255.255.0
GATEWAY=10.0.0.1


node1,node2,node3参照上面自己设置:

node1:

外部网络:192.168.200.41

与openstack通信网络:192.168.100.41

ceph管理网络:10.0.0.41

node2:

外部网络:192.168.200.42

与openstack通信网络:192.168.100.42

ceph管理网络:10.0.0.42

node3:

外部网络:192.168.200.43

与openstack通信网络:192.168.100.43

ceph管理网络:10.0.0.43


设置主机名与域名解析:
admin-node:

hostnamectl set-hostname admin-node

echo 10.0.0.40 admin-node >> /etc/hosts
echo 10.0.0.41 node1 >> /etc/hosts
echo 10.0.0.42 node2 >> /etc/hosts
echo 10.0.0.43 node3 >> /etc/hosts

node1:

hostnamectl set-hostname node1

echo 10.0.0.40 admin-node >> /etc/hosts
echo 10.0.0.41 node1 >> /etc/hosts
echo 10.0.0.42 node2 >> /etc/hosts
echo 10.0.0.43 node3 >> /etc/hosts

node2:

hostnamectl set-hostname node2

echo 10.0.0.40 admin-node >> /etc/hosts
echo 10.0.0.41 node1 >> /etc/hosts
echo 10.0.0.42 node2 >> /etc/hosts
echo 10.0.0.43 node3 >> /etc/hosts

node3:

hostnamectl set-hostname node3

echo 10.0.0.40 admin-node >> /etc/hosts
echo 10.0.0.41 node1 >> /etc/hosts
echo 10.0.0.42 node2 >> /etc/hosts
echo 10.0.0.43 node3 >> /etc/hosts


所有节点上:

关闭防火墙firewalld:

systemctl stop firewalld.service
systemctl disable firewalld.service

关闭selinux:

vi /etc/selinux/config

SELINUX=disabled
要使设置生效你可以选择重启或者:
setenforce 0


测试

所有节点都可以试试

ping -c 4 admin-node
ping -c 4 node1
ping -c 4 node2
ping -c 4 node3

<think>好的,用户想在CentOS 7.9上搭建Ceph集群,需要详细的部署和配置指南。首先,我需要回忆之前提供的引用内容,看看有没有相关的步骤。 引用[2]提到在CentOS7上使用ceph-deploy工具安装和配置Ceph,包括安装ceph-deploy的步骤。引用[4]提到复制配置文件和密钥环到客户端,这可能涉及集群节点的配置。引用[3]展示了编译和运行Java客户端,但用户目前可能不需要这部分,重点在部署集群。 用户需要的是从零开始的步骤,可能包括环境准备、安装工具、配置节点、部署集群等。需要确保步骤适用于CentOS 7.9,注意可能的依赖和版本问题。此外,引用中的命令可能需要调整,比如节点名称和网络配置。 还要考虑用户可能的后续问题,比如常见错误处理、性能优化或验证集群状态的方法。需要分步骤详细说明,确保用户能逐步操作,同时注意命令的正确性和权限问题,比如密钥环的权限设置。最后,生成相关问题帮助用户深入理解部署过程。</think>### CentOS 7.9 部署 Ceph 集群的步骤 #### 1. 环境准备 - **节点规划**:至少需要1个管理节点(如 `ceph-admin`)和多个存储节点(如 `ceph-node1`、`ceph-node2`)。所有节点需配置SSH免密登录。 - **系统要求**: - CentOS 7.9 系统,关闭 SELinux 和防火墙: ```bash sudo setenforce 0 sudo systemctl stop firewalld sudo systemctl disable firewalld ``` - 同步所有节点时间(使用 NTP 或 Chrony)[^2]。 #### 2. 安装 Ceph 部署工具 在管理节点安装 `ceph-deploy`: ```bash sudo yum install -y epel-release sudo yum install -y ceph-deploy python-pip ``` #### 3. 初始化集群配置 在管理节点创建工作目录并初始化集群: ```bash mkdir ceph-cluster && cd ceph-cluster ceph-deploy new ceph-node1 ceph-node2 # 指定初始监控节点 ``` 编辑生成的 `ceph.conf` 文件,添加公共网络配置: ```ini public network = 192.168.1.0/24 ``` #### 4. 安装 Ceph 组件 在所有节点安装 Ceph 基础包: ```bash ceph-deploy install --release nautilus ceph-admin ceph-node1 ceph-node2 ``` > 注:若使用较新版本,需替换 `nautilus` 为对应版本号。 #### 5. 部署监控节点 在指定节点部署监控服务: ```bash ceph-deploy mon create-initial ceph-deploy admin ceph-admin ceph-node1 ceph-node2 # 分发配置文件[^4] ``` #### 6. 添加 OSD 存储 为每个存储节点分配磁盘(如 `/dev/sdb`)并创建 OSD: ```bash ceph-deploy osd create ceph-node1 --data /dev/sdb ceph-deploy osd create ceph-node2 --data /dev/sdb ``` #### 7. 部署 MDS(可选) 若需使用 CephFS,需部署元数据服务: ```bash ceph-deploy mds create ceph-node1 ``` #### 8. 验证集群状态 ```bash ssh ceph-node1 sudo ceph -s ``` 正常状态应显示 `HEALTH_OK`,且 OSD 数量与配置一致[^1]。 #### 9. 挂载 CephFS(示例) 客户端节点挂载文件系统: ```bash sudo mount -t ceph ceph-node1:6789:/ /mnt/cephfs -o name=admin,secretfile=/etc/ceph/ceph.client.admin.keyring ``` --- ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值