
ceph相关
我是打杂的哈
这个作者很懒,什么都没留下…
展开
-
cephfs-cap2
http://www.soolco.com/post/52107_1_1.html转载 2021-01-14 01:01:07 · 243 阅读 · 0 评论 -
cephfs-cap1
一、Cap:概述 cap是文件系统层面的,包括元数据、数据操作。cap 和mds分布式锁是对应的cap是MDS分配给client对inode的操作能力权限。不同的客户端,或者同一客户端不同时刻,对同一inode持有cap可能是不同的•作用:MDS通过cap对多个客户端操作同一个inode进行权限管理 二、基本cap 三、Cap和锁 四、Cap结构 ...转载 2021-01-14 00:53:47 · 281 阅读 · 0 评论 -
基于pglog的Ceph一致性存储问题-转载
基于pglog的Ceph一致性存储问题 吴东 2016 年 3 月 30 日 https://www.infoq.cn/article/consistency-storage-problem-of-ceph-based-on-pglog 语言 & 开发架构 分布式存储系统通常采用多副本的方式来保证系统的可靠性,而多副本之间如何保证数据的一致性就是系统的核心。Ceph 号称统一存储,其核心 RADOS 既支持多副本,也支持纠删码。本文主要分析 C转载 2020-11-10 00:16:02 · 359 阅读 · 0 评论 -
RGW caceh
缓存是为达到系统快速响应的一项关键技术,Ceph 作为一个复杂的分布式存储系统,有多种、多级缓存存在。缓存按照位置分为:客户端缓存 服务端缓存 网络中缓存按照部署方式分为:单体缓存 缓存集群 分布式缓存而Rados 网关缓存,也即RGW Cache 按照位置:作为Ceph client 可以归为客户端缓存,作为上层应用的服务端可以归为服务端缓存。而按照部署方式则为分布式缓存,因...转载 2020-04-04 17:07:51 · 480 阅读 · 0 评论 -
【ceph】对象存储网关优化
转简书:https://www.jianshu.com/p/c3fe18771ca1转载 2020-04-04 16:48:56 · 631 阅读 · 0 评论 -
资源池创建&&cephfs创建
一.创建资源池1.故障域划分ceph osd crush add-bucket test_root root #创建根ceph osd crush add-bucket test_host1 host #创建hostceph osd crush add-bucket test_host2 host #创建hostceph osd crush move test_host1 root...原创 2020-03-20 18:44:24 · 817 阅读 · 0 评论 -
ceph osd混合部署和普通部署
原 ceph osd混合部署和普通部署 ...转载 2019-07-10 15:59:51 · 777 阅读 · 0 评论 -
cephfs mds多活设置
1.设置mds个数ceph fs set cephfs max_mds 52.对目录进行设置多活setfattr -n ceph.dir.pin -v 0 test1do setfattr -n ceph.dir.pin -v 1 test2setfattr -n ceph.dir.pin -v 2 test3setfattr -n ceph.dir.pin -v 3 tes...原创 2019-07-11 20:02:59 · 1861 阅读 · 0 评论 -
Ceph MDS服务无法正常删除
[root@node~]# ceph -s cluster: id: f1607357-011f-4064-bcd3-51866fa71844 health: HEALTH_WARN 1 filesystem is degraded 1 filesystem has a failed mds daemon ...原创 2019-07-12 15:30:54 · 4325 阅读 · 0 评论 -
wal与db分区磁盘util较高
在使用cephfs上层业务进行数据写入的时候,wal与db所在分区的util值较高,可能是由于bluestone的compaction导致,具体排查如下iotop 查看查看是否有较多的rockdb:bg0,是的话,代表在compaction如何减少compaction:在数据写入之前手动进行触发ceph daemon osd.0compact或者关闭compactio...原创 2019-07-12 16:27:42 · 1661 阅读 · 0 评论 -
rbd 删除慢问题分析
近日在测试环境中遇到了没有写数据rbd删除满的情况,通过对比测试当rbd有如下的feathers删除会变慢rbd image 'no_lock_rbd': size 1024 MB in 256 objects order 22 (4096 kB objects) block_name_prefix: rbd_data.1159643c9869 format: ...原创 2019-07-25 00:05:50 · 1272 阅读 · 0 评论 -
RGW动态reshard
下面是我对rgw最大对象数据限制的调研, 而是当触发了某一个条件, 系统会自动的运行reshard process去扩大桶的索引下面是我的验证流程及代码分析一. 查看配置文件系统默认值, 如下图,10w个这个参数意味当rgw_dynamic_resharding的值为true时, 当对象的个数大于rgw_max_objs_per_shard * num_shared时, 会触...原创 2019-08-09 11:33:41 · 1002 阅读 · 0 评论 -
rbd 删除读写锁
[root@node1 luns]# rbd lock ls test2_index/win2There is 1 exclusive lock on this image.Locker ID Address client.5395054 auto 139942852675488 10.193.56....原创 2019-07-10 14:05:10 · 1502 阅读 · 0 评论 -
rbd 关闭互斥锁能力集
创建好rbd之后,修改rbd feature disable san_index/test fast-diffrbd feature disable san_index/test object-maprbd feature disable san_index/test exclusive-lock创建就禁掉rbd create san_index/test1 -s...原创 2019-07-10 13:58:08 · 1064 阅读 · 0 评论 -
cephfs修改容量
只对用户态挂载有效设置setfattr -n ceph.quota.max_bytes /nas/cephfs/disk1 -v 419430400查看getfattr -n ceph.quota.max_bytes /nas/cephfs/disk1原创 2019-07-09 19:19:20 · 1895 阅读 · 0 评论 -
ceph 对象存储搭建
1, 创建pool(rule_set是资源池的规则)ceph osd pool create .hk.users.swift 64 64 rule_setceph osd pool create .hk.users 64 64 rule_setceph osd pool create .hk.log 64 64 rule_setceph osd pool cr...原创 2019-03-07 16:26:13 · 782 阅读 · 0 评论 -
创建对象网关服务脚本
#!/bin/bash#判断用户的存在性function is_exist(){local name="$1"ceph auth get $name > /dev/null 2>&1if [ $? -eq 0 ]thenreturn 1fireturn 0}echo "start create gateway..."if [ $#...原创 2019-03-07 20:27:06 · 228 阅读 · 0 评论 -
ceph 对象存储设置bucket share
一, 通过设置zonegroup ,如下设置完成之后,执行/usr/bin/radosgw-admin period update –commit更新这种方式对整个ceph集群都是有效的,即无论通过集群内的哪个gateway服务创建的桶,桶的索引数据都会被分片。二,通过修改配置文件的方式设置完之后,重启radosgw服务这个方式只对当前节点生效,即只有通过当前节点...原创 2019-03-11 16:01:13 · 3659 阅读 · 0 评论 -
ceph 对象存储元数据恢复备份
1, 使用s3broswer上传一个10MB的文件2, 备份rgw元数据1) 获取所有bi 2) 获取某个bi 将输出定向到一个文件中3, 删除元数据使用s3broswer工具发现数据被删除4, 恢复元数据5, 确认数据恢复1) 2) 使用s3browers查看, 数据成功恢复,下载下...原创 2019-03-11 16:04:44 · 1559 阅读 · 0 评论 -
s3cmd配置bucket生命周期
1,安装s3cmd1)下载https://sourceforge.net/projects/s3tools/files/s3cmd/2)解压安装unzip s3cmd-2.0.1.zip; cd s3cmd-2.0.1/; python setup.py install2,配置s3cmd执行s3cmd --configure//填写具体参数3, 创建...原创 2019-03-13 15:12:06 · 3123 阅读 · 1 评论 -
ceph rgw 垃圾回收机制流程
1,删除对象后,会将垃圾数据标记在.rgw.gc这个池中2.并发的删除的work数量由参数决定rgw_gc_max_objs,而这个数量对应的个数是资源池.rgw.gc中对象的多少3.数据删除后,垃圾在数据池保存的时间由rgw_gc_obj_min_wait决定,单位秒4.rgw_gc_processor_period参数决定垃圾回收进程多长时间轮训一次,...转载 2019-03-18 16:48:58 · 3420 阅读 · 0 评论 -
ceph 对象存储支持多用户
1.在配置文件中添加对象存储用户,eg[client.rgw.node]rgw_frontends = "civetweb port=7439"log file = /var/log/ceph/test.rgw.logdebug_rgw = 20rgw_gc_obj_min_wait = 10rgw_gc_processor_period = 302.创建用户,启...原创 2019-03-18 17:18:12 · 1005 阅读 · 0 评论 -
ceph rgw 高可用
软件介绍1 LvsLVS (Linux Virtual Server)到底是什么东西,其实它是一种集群(Cluster)技术,采用IP负载均衡技术和基于内容请求分发技术。调度器具有很好的吞吐率,将请求均衡地转移到不同的服务器上执行,且调度器自动屏蔽掉服务器的故障,从而将一组服务器构成一个高性能的、高可用的虚拟服务器。整个服务器集群的结构对客户是透明的,而且无需修改客户端和服务器端的程序。...原创 2019-04-01 20:28:21 · 1208 阅读 · 0 评论 -
ceph 创建创建osd并指定rocksdb与wal
for i in {e..i};do ceph-disk prepare /dev/sd$i --block.db /dev/hda --block.wal /dev/hda &; donefor i in {e..i};ceph-disk -v activate /dev/sd“$i”1 & ;done/dev/hda/与 /dev/sdb是两个ssd作为osd的wal和r...原创 2019-04-09 14:58:22 · 3644 阅读 · 0 评论 -
rbd通过快照进行卷备份
rbd的增量备份和恢复快照的功能一般是基于时间点做一个标记,然后在某些需要的时候,将状态恢复到标记的那个点,这个有一个前提是底层的东西没用破坏,举个简单的例子,Vmware里面对虚拟机做了一个快照,然后做了一些系统的操作,想恢复快照,前提是存储快照的存储系统没用破坏,一旦破坏了是无法恢复的1.创建快照rbdsnap create testimage@v1rbdsnap creat...原创 2019-04-19 19:53:13 · 1375 阅读 · 0 评论 -
S3 api 断点下载
断点下载流程分析 1, 发送head协议获取下载文件的大小2, 根据分段大小形成xml文件, xml文件的命令规则为文件名+_map.xml,举例如下<download> <Part> <offset>0</offset> <lenth>104857600</le...原创 2019-07-08 11:04:18 · 1299 阅读 · 0 评论 -
断点下载java实例
import java.io.BufferedReader;import java.io.File;import java.io.FileInputStream;import java.io.FileNotFoundException;import java.io.FileOutputStream;import java.io.IOException;import java.io.I...原创 2019-07-08 11:05:40 · 397 阅读 · 1 评论