
ceph
styshoo
这个作者很懒,什么都没留下…
展开
-
Ceph中文手册
发现了一个ceph手册的中文版,是根据官网的英文版翻译的,记录一下,以备后用。http://docs.openfans.org/ceph/ceph4e2d658765876863/ceph-1原创 2016-03-03 23:25:43 · 6011 阅读 · 1 评论 -
使用Rest api管理Ceph网关
背景 开发基于Ceph RadosGW的微服务,需要实现调用方可以通过rest api就能创建用户,获取用户信息等功能。 实现 Ceph的RadosGW自身就有该功能,这些创建用户、获取用户信息、获取使用情况等的功能被称为Admin Operation(管理操作)。我们直接通过RadosGW的URL再加上/admin就可以访问执行管理操作了,比如RadosGW的URL为htt原创 2018-02-05 05:36:32 · 2269 阅读 · 1 评论 -
CentOS7.0安装Ceph(jewel)及以上版本
背景 由于docker的Ceph插件rexray对Ceph版本有一定的要求,当Ceph版本为hammer (0.94.10)时,rexray无法成功创建rbd设备。CentOS 7及以上版本,默认安装的就是hammer版本,因此,我们需要安装更高的jewel版本。Ceph的版本可参见。 安装 为了安装速度,我们可以选用国内源。通常大家使用的国内源包括: 网易 ht原创 2018-02-01 06:23:25 · 4718 阅读 · 1 评论 -
rexray在CentOS上不能创建ceph rbd的docker volume问题定位
背景 我们通过docker的rexray插件来创建ceph rbd设备的docker volume,但总提示创建失败。 # docker volume create --driver=rexray --opt=size=5 --name=cephrbd-bookError response from daemon: create test_cephrbd_volume: Volu原创 2018-01-24 06:49:10 · 1440 阅读 · 0 评论 -
docker创建ceph集群
背景 Ceph官方现在提供两类镜像来创建集群,一种是常规的,每一种Ceph组件是单独的一个镜像,如ceph/daemon、ceph/radosgw、ceph/mon、ceph/osd等;另外一种是最新的方式,所有的Ceph组件都集成在一个镜像ceph/daemon中,如果要创建对应的Ceph组件容器,只需要指定类型即可。这里,我们使用第一种方式来创建Ceph集群。 另外,这里所有的容器,都原创 2017-08-17 07:44:24 · 3484 阅读 · 0 评论 -
ceph -s集群报错too many PGs per OSD
背景集群状态报错,如下:# ceph -s cluster 1d64ac80-21be-430e-98a8-b4d8aeb18560 health HEALTH_WARN <-- 报错的地方 too many PGs per OSD (912 > max 300) monmap e1: 1 mons at {node1=109.105.11原创 2017-03-17 05:43:46 · 6466 阅读 · 1 评论 -
ceph-deploy出错UnableToResolveError Unable to resolve host
背景 ps:在本文中,假设我系统的hostname为node1。 使用ceph-deploy命令搭建Ceph集群,执行ceph new node1时,出现如下错误: [node1][INFO ] Running command: /bin/ip addr show[node1][DEBUG ] IP addresses found: ['192.168.56.16', '172.17.原创 2017-03-16 06:22:56 · 1549 阅读 · 0 评论 -
ceph-deploy install时,远端节点在执行apt-get update命令时失败
环境 OS:Ubuntu 16.04背景 使用ceph-deploy部署Ceph集群,调用ceph-deploy install命令在远端节点安装ceph环境,执行apt-get update命令时失败。 Err:1 http://mirrors.163.com/ubuntu xenial InRelease Temporary failure resolving 'mirrors.163原创 2017-03-10 06:58:18 · 1337 阅读 · 0 评论 -
重启osd服务失败:Start request repeated too quickly
背景 OS:Ubuntu 16.04 修改了osd的一些配置,修改后,需要重启osd服务才能生效。第一次重启后,配置立刻生效。再改了一些配置,重启osd服务后,配置却不再生效了。ps命令查看进程,发现osd进程都没有启动。 分析 osd进程未启动,第一直觉就是配置出错,osd进程启动后又挂掉。于是,进入/var/log/ceph目录,查看ceph-osd.0.log,发现日志末尾只有关闭原创 2017-03-20 06:38:44 · 43957 阅读 · 1 评论 -
Ceph osd启动报错osd init failed (36) File name too long
在Ceph的osd节点上,启动osd进程失败,查看其日志/var/log/ceph/ceph-osd.{osd-index}.log日志,报错如下: 2017-02-14 16:26:13.558535 7fe3883f58c0 0 filestore(/var/lib/ceph/osd/ceph-1) mount: enabling WRITEAHEAD journal mode: check原创 2017-03-09 07:04:58 · 5701 阅读 · 0 评论 -
rdb map出错rbd sysfs write failed
创建了一个rbd镜像$ rbd create --size 4096 docker_test然后,在Ceph client端将该rbd镜像映射为本地设备时出错。$ rbd map docker_test --name client.adminrbd: sysfs write failedRBD image feature set mismatch. You can disable features原创 2017-03-08 07:05:31 · 3853 阅读 · 0 评论 -
Ceph部署(一)集群搭建
背景Ceph简介Ceph是一个分布式存储,可以提供对象存储、块存储和文件存储,其中对象存储和块存储可以很好地和各大云平台集成。一个Ceph集群中有Monitor节点、MDS节点(可选,用于文件存储)、至少两个OSD守护进程。 Ceph OSD:OSD守护进程,用于存储数据、处理数据拷贝、恢复、回滚、均衡,并通过心跳程序向Monitor提供部分监控信息。一个Ceph集群中至少需要两个OSD守护进程。原创 2017-02-17 05:41:45 · 16439 阅读 · 2 评论 -
Ceph部署(二)RGW搭建
背景Ceph RGW简介Ceph RGW基于librados,是为应用提供RESTful类型的对象存储接口。RGW提供两种类型的接口: 1) S3:兼容Amazon S3RESTful API; 2) Swift:兼容OpenStack Swift API。 S3和Swift API共享同一个命名空间,所以可以使用两种API访问相同的数据。环境规划如上篇文章《Ceph部署(原创 2017-02-28 06:39:19 · 6161 阅读 · 0 评论 -
dcos下rexray服务的配置
在dcos环境下,rexray服务的默认配置文件为/opt/mesosphere/etc/rexray.conf,而其服务文件则是/etc/systemd/system/dcos-rexray.service。 # vim /etc/systemd/system/dcos-rexray.service[Unit]Description=REX-Ray: A vendor agno...原创 2018-03-18 22:35:14 · 699 阅读 · 0 评论