OpenStack cinder对接Ceph存储实验全过程

Cinder是OpenStack中的一个组件,用于管理和提供块存储服务。
准备ceph安装环境:

一、实验环境介绍
ceph_node1   192.168.40.11  192.168.6.81
ceph_node2   192.168.40.12  192.168.6.82
ceph_node3   192.168.40.13  192.168.6.83

给三台虚拟机分别添加三块硬盘,磁盘大小为20G

二、给三台虚拟机分别配置IP地址,确保能访问外网

cd  /etc/sysconfig/network-scripts

vim ifcfg-ens33

YPE=Ethernet

PROXY_METHOD=none

BROWSER_ONLY=no

BOOTPROTO=none

DEFROUTE=yes

NAME=ens33

DEVICE=ens33

ONBOOT=yes

IPADDR=192.168.40.11

PREFIX=24

GATEWAY=192.168.40.1

DNS1=192.168.40.1

systemctl restart network

其他两台分别设置为192.168.40.12和192.168.40.13,测试三台虚拟机之间能互相通信且能访问外网

三、设置计算机名

hostnamectl set-hostname ceph_node1

hostnamectl set-hostname ceph_node2

hostnamectl set-hostname ceph_node3

四、关闭所有节点的防火墙和SELinux

systemctl disable firewalld

systemctl stop firewalld

vim /etc/selinux/config

setenforce 0

五、在所有的节点上配置/etc/hosts文件

[root@ceph_node1 ~] cat /etc/hosts

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4

::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

192.168.6.81  ceph_node1

192.168.6.82  ceph_node2

192.168.6.83  ceph_node3

六、在ceph_node1生成秘钥,并将公钥复制到各个节点,包括自己,建立ssh互信

ssh-copy-id -i /root/.ssh/id_rsa.pub ceph_node1

ssh-copy-id -i /root/.ssh/id_rsa.pub ceph_node2

ssh-copy-id -i /root/.ssh/id_rsa.pub ceph_node3

七、配置时间服务器

1. 在ceph_node1上安装chronyd,其他节点指向该服务器

vim /etc/chronyd.conf

 Allow NTP client access from local network.

allow 192.168.31.0/24     允许的网段

 Serve time even if not synchronized to a time source.

local stratum 10

systemctl enable chronyd

systemctl restart chronyd

2. 在ceph_node2和ceph_node3上指向ceph_node1

vim /

### OpenStack CinderCeph存储系统的集成指南 #### 集成概述 为了使OpenStack环境中的虚拟机能够利用高效可靠的块级存储,可以将OpenStack Cinder服务同高性能分布式对象存储解决方案——Ceph相结合。这种组合不仅提供了灵活的数据管理能力,还增强了数据冗余性和可扩展性[^1]。 #### 安装准备 确保已安装并配置好最新的OpenStack版本以及Ceph集群。对于OpenStack而言,重点在于确认`cinder-api`, `cinder-scheduler`, 和 `cinder-volume`组件正常运行;而对于Ceph,则需验证其健康状态良好,并拥有足够的可用空间来支持预期的工作负载[^2]。 #### 修改配置文件 编辑 `/etc/cinder/cinder.conf` 文件,在 `[DEFAULT]` 或者特定backend部分添加如下设置: ```ini enabled_backends = ceph [ceph] volume_driver = cinder.volume.drivers.rbd.RBDDriver rbd_pool = volumes rbd_ceph_conf = /etc/ceph/ceph.conf rados_id = openstack ``` 上述参数指定了使用RBD作为驱动程序,并指向了具体的CEPH配置路径及RADOS用户ID等信息[^3]。 #### 创建密钥环条目 为了让Cinder能访问到Ceph池资源,还需创建相应的keyring项: ```bash ceph auth get-or-create client.openstack mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=volumes' ``` 此命令授予了名为client.openstack的身份权限去读取监视器元数据和对指定volumes池执行全部操作的权利[^4]。 #### 测试连接 完成以上步骤之后,重启Cinder Volume服务以加载新的更改。接着可以通过CLI工具测试新加入的后端是否工作正常: ```python openstack volume type create --property volume_backend_name=ceph ceph_type openstack volume create --type ceph_type test_volume_01 ``` 如果一切顺利的话,应该可以看到一个新的卷被成功创建出来并且关联到了对应的Ceph Pool上[^5]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值