ceph
文章平均质量分 56
段帅星
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
ROOK-FAQ
记录关于rook-ceph运维的常见问题原创 2024-03-25 11:06:48 · 236 阅读 · 0 评论 -
不懂的知识
当拔出硬盘后,内核会调用sd_remove()函数卸载硬盘,正常情况下会清除该硬盘盘符占用的所有资源,包括SCSI盘符对应的IDR整数。但我们拔出硬盘时,若系统有进程正在访问该硬盘,则内核不会删除对应IDR的整数,该整数就会被占用,再次插入硬盘时,就分配新的IDR整数给盘符,导致盘符漂移。原创 2023-08-01 10:28:25 · 191 阅读 · 0 评论 -
二十一、PG管理
可以通过ceph pg stat命令查看PG当前状态,健康状态为“active + clean”原创 2023-03-11 10:43:46 · 566 阅读 · 1 评论 -
ROOK-03 rook ceph集群使用和管理
kubeasz部署高可用kubernetes集群环境信息(本地PC资源不够,暂时中止部署)角色IP地址系统版本配置独立磁盘master1(etcd1)192.168.86.21centos7.82核2Gnonemaster2(etcd2)192.168.86.22centos7.82核2Gnonemaster3(etcd3)192.168.86.23centos7.82核2Gnonenode1192.168.86.24centos7原创 2020-10-18 23:01:17 · 1373 阅读 · 0 评论 -
ROOK-02 优化集群参数部署ROOK
一、环境信息主机名IPk8s角色rook角色磁盘20Grook01192.168.86.36master,slavemon,mgr,osd,csi/dev/sdb-sddrook02192.168.86.37master,slavemon,mgr,osd,csi/dev/sdb-sddrook03192.168.86.38master,slavemon,mgr,osd,csi/dev/sdb-sddrook04192.168.86.39原创 2021-09-07 23:24:01 · 793 阅读 · 0 评论 -
ROOK-01 集群简单搭建和卸载
一、环境信息主机名IPk8s角色rook角色磁盘20Grook01192.168.86.36master,slavemon,mgr,osd,csi/dev/sdb-sddrook02192.168.86.37master,slavemon,mgr,osd,csi/dev/sdb-sddrook03192.168.86.38master,slavemon,mgr,osd,csi/dev/sdb-sddrook04192.168.86.39原创 2021-09-01 23:03:39 · 579 阅读 · 0 评论 -
二十、CEPH-FAQ
FAQ:1、现象:集群pg严重分布不均告警:Degraded data redundancy: 12 pgs undersized解决办法:ceph osd reweight-by-utilization原创 2021-06-23 11:47:14 · 1073 阅读 · 0 评论 -
十九、ceph故障演练
ceph 故障演练原创 2023-02-04 15:39:25 · 93 阅读 · 0 评论 -
十八、查看ceph rbd image的真实位置
ceph rbd image查看真实位置原创 2023-01-04 19:26:24 · 27 阅读 · 0 评论 -
十七、ceph rbd集群更换所有IP
ceph集群更换ip原创 2022-08-26 03:12:37 · 197 阅读 · 0 评论 -
十六、基于ceph rbd的k8s volume自动快照功能
velero备份k8s pvc原创 2022-07-01 00:31:53 · 177 阅读 · 0 评论 -
十五、基于ceph rbd的k8s volume快照功能
环境:主机IP系统版本内核版本服务角色服务版本192.168.86.36CentOS Linux release 7.7.1908 (Core)Linux 3.10.0-1062.9.1.el7.x86_64ceph rbd14.2.22192.168.86.37CentOS Linux release 7.7.1908 (Core)Linux 3.10.0-1062.9.1.el7.x86_64k8sk8s v1.22.2、ceph csi v3.4.0原创 2021-12-05 11:13:22 · 1090 阅读 · 0 评论 -
十四、单机单盘场景部署ceph环境
单机单盘部署rbd原创 2021-08-14 03:07:02 · 821 阅读 · 0 评论 -
十三、docker构建ceph nautilus离线yum源
一、使用方法:docker 镜像方式构建离线源,方便在不同环境启动本地镜像源,启动方式可以是docker 也可以是 kubernetes镜像地址:registry.baidubce.com/tools/yum:ceph-nautilus镜像大小:637MB二、构建过程参考:https://blog.youkuaiyun.com/weixin_47003048/article/details/109537084...原创 2021-03-14 23:04:07 · 235 阅读 · 0 评论 -
十二、ceph监控与告警
一、部署dashboard1、安装并启动dashboardcd ceph-deploy-admin/yum -y install ceph-mgr-dashboardceph mgr module enable dashboard --force2、证书配置(使用自签证书参考:ceph dashboard证书)生成证书ceph dashboard create-self-signed-cert3、配置dashboard主机名和端口ceph config set mgr mgr/dash原创 2021-06-26 00:03:34 · 1206 阅读 · 0 评论 -
十一、ceph测试
一、高可用测试1、mon高可用测试1>模拟1个mon故障systemctl stop ceph-mon@ceph01.service#创建rbd看是否正常rbd create -p rbd-test --image rbd-mon-test.img --size 10Grbd ls -p rbd-test2>模拟2个mon故障systemctl stop ceph-mon@ceph01.servicesystemctl stop ceph-mon@ceph02.service原创 2021-06-23 09:57:30 · 480 阅读 · 0 评论 -
十、ceph集群运维
一、OSD纵向扩容原创 2021-06-19 05:10:44 · 483 阅读 · 0 评论 -
九、ceph-fs
一、部署1、部署mds集群cd ceph-deploy-adminceph-deploy mds create ceph01 ceph02 ceph032、创建ceph-fs文件系统#创建poolceph osd pool create cephfs_metadata 64 64ceph osd pool create cephfs_data 64 64#创建文件系统关联pool ceph fs new cephfs-demo cephfs_metadata cephfs_data二原创 2021-06-22 09:27:54 · 156 阅读 · 0 评论 -
八、对象存储
rgw原创 2021-06-21 23:15:33 · 176 阅读 · 0 评论 -
七、在k8s中使用ceph rbd
一、以volume方式使用ceph1、ceph端配置1>创建poolceph osd pool create kubernetes-rbd 64 642>创建用户ceph auth get-or-create client.kubernetes-rbd-user mon 'profile rbd' osd 'profile rbd pool=kubernetes-rbd'3>创建rbd块rbd create -p kubernetes-rbd --image-featur原创 2021-06-18 00:06:14 · 1057 阅读 · 0 评论 -
六、RBD块存储
一、创建存储池原创 2021-06-14 14:32:48 · 1342 阅读 · 0 评论 -
五、扩展mon和mgr
一、基础环境原因:mon在集群内做为集群控制中心,包含整个集群状态,需要确保mon为高可用,一般是奇数个,比如1,3,5现状:1个mon,1个mgr需求:把ceph02、ceph03加入到mon集群二、扩展moncd ceph-deploy-admin/ceph-deploy mon add ceph02 --address 192.168.86.52ceph-deploy mon add ceph03 --address 192.168.86.53ceph quorum_status -原创 2021-06-12 16:54:51 · 261 阅读 · 0 评论 -
四、ceph n版本生产环境部署方案
系统版本主机名ipcpu内存磁盘CentOS 7.7.1908ceph01 (ansible、mon、osd)192.168.86.514c8Gsda、sdb、sdc、sddCentOS 7.7.1908ceph02 (mon、osd)192.168.86.524c8Gsda、sdb、sdc、sddCentOS 7.7.1908ceph03 (mon、osd)192.168.86.534c8Gsda、sdb、sdc、sddCentO....原创 2021-05-24 01:08:51 · 2249 阅读 · 0 评论 -
三、rbd常用命令
使用场景:云平台(OpenStack做为云的存储后端提供镜像存储)K8s容器map成块设备直接使用ISCIS,安装Ceph客户端RBD常用命令命令功能rbd create创建块设备映像rbd ls列出 rbd 存储池中的块设备rbd info查看块设备信息rbd diff可以统计 rbd 使用量rbd map映射块设备rbd showmapped查看已映射块设备rbd remove删除块设备rbd resize更改原创 2021-04-22 00:29:34 · 5309 阅读 · 1 评论 -
二、部署ceph nautilus
环境准备:主机名IP地址系统版本CPU内存磁盘ceph01192.168.86.51centos 7.548Gsda 200G、sdb20Gceph02192.168.86.52centos 7.548Gsda 200G、sdb20Gceph03192.168.86.53centos 7.548Gsda 200G、sdb20G一、系统环境配置1、关闭防火墙(各个节点分别执行)systemctl stop firewallds原创 2021-03-12 00:38:07 · 591 阅读 · 0 评论 -
一、ceph核心概念
一、ceph 核心概念1、RADOS可靠的、自动化的、分布式对象存储系统。RADOS是Ceph集群的精华,用户实现数据分配、Failover等集群操作2、LibradosRados提供库,因为RADOS是协议很难直接访问,因此上层的RBD、RGW和CephFS都是通过librados访问的,目前提供PHP、Ruby、Java、Python、C和C++支持3、CrushCrush算法是Ceph的两大创新之一,通过Crush算法的寻址操作,Ceph得以摒弃了传统的集中式存储元数据寻址方案。而Cr原创 2021-03-19 01:34:56 · 523 阅读 · 0 评论
分享