ceph (luminous 版) journal disk 故障测试

本文介绍了在Ceph Luminous版本中遇到journal磁盘故障的测试情况,包括故障现象、解决步骤和恢复过程。详细讲述了如何格式化恢复journal磁盘文件系统、重新初始化journal、修改文件属性以及重启服务等关键步骤,最终成功恢复了ceph存储功能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目的

ceph (luminous 版)
journal disk 磁盘故障
解决 journal disk 故障

环境

参考手动部署 ceph 环境说明 (luminous 版)
ceph 环境如下

[root@cephsvr-128040 ~]# ceph -s
	cluster:
		id:     c45b752d-5d4d-4d3a-a3b2-04e73eff4ccd
		health: HEALTH_OK

	services:
		mon: 3 daemons, quorum cephsvr-128040,cephsvr-128214,cephsvr-128215
		mgr: openstack(active)
		osd: 36 osds: 36 up, 36 in

	data:
		pools:   1 pools, 2048 pgs
		objects: 7 objects, 725 bytes
		usage:   50607 MB used, 196 TB / 196 TB avail
		pgs:     2048 active+clean

参考 osd tree

[root@cephsvr-128040 ~]# ceph osd tree
ID  CLASS WEIGHT    TYPE NAME                   STATUS REWEIGHT PRI-AFF
 -1       216.00000 root default
-10        72.00000     rack racka07
 -3        72.00000         host cephsvr-128214
 12   hdd   6.00000             osd.12              up  1.00000 1.00000
 13   hdd   6.00000             osd.13              up  1.00000 1.00000
 14   hdd   6.00000             osd.14              up  1.00000 1.00000
 15   hdd   6.00000             osd.15              up  1.00000 1.00000
 16   hdd   6.00000             osd.16              up  1.00000 1.00000
 17   hdd   6.00000             osd.17              up  1.00000 1.00000
 18   hdd   6.00000             osd.18              up  1.00000 1.00000
 19   hdd   6.00000             osd.19              up  1.00000 1.00000
 20   hdd   6.00000             osd.20              up  1.00000 1.00000
 21   hdd   6.00000             osd.21              up  1.00000 1.00000
 22   hdd   6.00000             osd.22              up  1.00000 1.00000
 23   hdd   6.00000             osd.23              up  1.00000 1.00000
 -9        72.00000     rack racka12
 -2        72.00000         host cephsvr-128040
	0   hdd   6.00000             osd.0               up  1.00000 0.50000
	1   hdd   6.00000             osd.1               up  1.00000 1.00000
	2   hdd   6.00000             osd.2               up  1.00000 1.00000
	3   hdd   6.00000             osd.3               up  1.00000 1.00000
	4   hdd   6.00000             osd.4               up  1.00000 1.00000
	5   hdd   6.00000             osd.5               up  1.00000 1.00000
	6   hdd   6.00000             osd.6               up  1.00000 1.0
Ceph是一个可靠的、数据自动重均衡、自动恢复的SDS(软件定义存储)分布式存储系统,功能主要有三大块:块存储、对象存储、文件系统。Ceph不但是提供了统一存储,并且同时还充分利用了客户端的计算能力,在存储每一个数据时,都会通过计算得出该数据存储的位置,尽量将数据分布均衡,同时由于Ceph的设计,采用了CRUSH算法、HASH环等方法,使得它不存在传统的单点故障的问题,且随着规模的扩大性能并不会受到影响。不管是私有云还是公有云,随着云架构的发展,Ceph 成为了OpenStack、Proxmox标配的后端存储,不光如此,就连目前最火的容器编排 Kubernetes 持久存储也都支持 Ceph ,让 Ceph 成为当前主流的存储系统,而对 Ceph 存储的学习也就变的刻不容缓。 该课程属于比较基础的 Ceph 存储课程,旨在让大家能快速上手对 Ceph 集群的部署以及操作,主要讲解以下几个方面: 1.     架构的介绍2.     集群的多种部署方式3.     块存储部署,客户端使用及快照、克隆和镜像4.     对象存储的部署及简单使用5.     Ceph FS 文件系统的部署、客户端使用及导出为NFS6.     集群的操作和管理,包括服务,集群扩展,缩减和集群维护7.     Ceph 基础知识的介绍,包括集群map,PG和身份验证8.     Ceph 集群的监控
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Terry_Tsang

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值