GlusterFS分析

引言 
GlusterFS 
是一个高层次的分布式文件系统解决方案。通过增加一个逻辑层,对上层使用者掩盖了下面的实现,使用者不用了解也不需知道,文件的存储形式、分布。内部实现 
是整合了许多存储块(server)通过Infiniband RDMA 或者Tcp/Ip 
方式互联的一个并行的网络文件系统,这样的许多存储块可以通过许多廉价的x86 主机,通过网络搭建起来。 
其相对于传统NAS 、SAN、Raid 的优点就是: 

容量可以按比例的扩展,且性能却不会因此而降低。 

廉价且使用简单,完全抽象在已有的文件系统之上。 

扩展和容错设计的比较合理,复杂度较低。扩展使用translator 方式,扩展调度使用scheduling 接口,容错交给了本地的文件系统来处理。 

适应性强,部署方便,对环境依赖低,使用,调试和维护便利。 

支持主流的linux 系统发行版,包括fc,ubuntu,debian,suse 等,并已有若干成功应用。 
整体逻辑结构分析 
GlusterFS,整体来看分客户和服务端两部分,当然这是相对的。 

客户端是对于提供数据中心整体来说的,它对外提供文件服务,目录服务,两个文件系统最重要的两个服务。(注1:文件复制和共享的问题不知GlusterFS 是怎么考虑的)。 

客户机拥有一个卷管理器,和子卷的调度程序,在客户机中有的子卷映像和服务器主机是相对的,1 对1。相当于一个卷集包含了若干逻辑卷,逻辑卷的物理位置是在服务器主机上的,该实现与NFS 是有很大区别的。 

服务器主机,上面拥有与客户机相应的通信接口,接口之间使用GlusterFs protocol 来通信,服务器主机还应有自己的文件系统来提供文件服务和目录服务,GlusterFS 是构建在其上的。 

当然客户和服务主机都有相应的配置文件,物理连接是通过InfiniBand、Myrinet 或者Gbit 以太网连接。下图为个人理解图: 

组件构成分析 

客户与服务器组件。这部分是复杂双方传输一个总的接口,服务器组件负责把自己的子卷发布出来,客户组件负责挂载GlusterFS 到内核的VFS 上。 

翻译器模式, 一种来自GNU/Hurd的设计机制,(hurd 是借鉴IBM vms 
系统设计的,内核只有最简单的功能,其上层设计了模拟器可以模拟很多操作系统)该设计可以扩展GlusterFS 
的功能,包括调试器,性能调优的工具,加密验证等都是使用的该模式。xlators 文件夹下的都是翻译器的实现。 

传输模块,protocol translators 文件夹是其实现。 

调度模块,Scheduler 文件夹下面有4种调度器实现,其作用是对子卷做负载均衡。 
4 种调度器实现了unify 翻译器。分别为: 

Adaptive Least Usage (ALU) 利用它的一种评价方式,把一些要素如磁盘利用率、文件访问频率(读、写分开)、响应速度等综合起来考虑,做出的一种自适应的调度方式。其实现是4 种调度中最复杂的。 

Non-Uniform Filesystem Scheduler 这个有点象NUMA ,一种结合SMP 和Mpp以及cluster 优点的内存管理方式,它的一个特点就是在创建文件时优先在本地创建文件。 

Random scheduler 随机调度器,使用随机数发生器,选择子卷。 

Round-Robin (RR) scheduler 
螺旋线调度算法,它会将数据包均匀的分发给各台服务器,它把所有的服务器放在相等的地位上,而不会实际的去考虑各台服务器的差异,如负载,响应等等,如有 
4 台服务器,调度序列可能就是ABCDABCDABCDABCD。。。 
4 种基本模块构成了GlusterFS,另外还提供了一些扩展。 
源代码组成分析 
定量分析:37 个头文件,55 个c 源码文件,共有代码59460 行(包括源码中的空行)。文件最多的是libglusterfs 文件夹,包含了36 个文件。 
启动过程 
glusterfs_ctx_t(重要):GlusterFS 的环境类。里面包含日志文件,日志级别,定时器,poll 类型等等,使用dict 实现。服务端和客户端可以使用守护进程方式(deamon 精灵),也可以作为应用程序来启动。 
下面剖析了两个部分的main 函数。 
server部分(glusterfsd.c)初始化环境ctx,初始化调用池,初始化链表,解析命令行参数。 
//main 部分 
FILE *fp; 
int32_t pidfd; 
glusterfs_ctx_t ctx = { //这个东西比较常见,环境提供者,使用字典或//map 实现。 
   .logfile = DATADIR "/log/glusterfs/glusterfsd.log", 
   .loglevel = GF_LOG_ERROR, //日志级别,有点像log4j 
   .poll_type = SYS_POLL_TYPE_MAX, //使用poll 方式?奇怪为什么不使用epoll 
}; 
call_pool_t *pool; 
pool = ctx.pool = calloc (1, sizeof (*pool)); 
LOCK_INIT (&pool->lock); 
INIT_LIST_HEAD (&pool->all_frames); 
argp_parse (&argp, argc, argv, 0, 0, &ctx); 
设定进程pid,设定日志级别,文件路径。 
pidfd = pidfile_lock (pidfile); 
if (gf_log_init (ctx.logfile) 
接下来设定系统资源限制,一般默认是1024,比如打开文件数,此处设定为65535.软限制和硬限制设为相等。 

struct rlimit lim; //该结构体是系统内核提供的,含有两个成员 
lim.rlim_cur = RLIM_INFINITY; 
lim.rlim_max = RLIM_INFINITY; 
if (setrlimit (RLIMIT_CORE, &lim) 
接下来读取卷配置文件specfile 串,程序设定的是CONFDIR "/glusterfs-server.vol",成功了如何如何…..失败了如何如何…… 
if (specfile) { 
   fp = fopen (specfile, "r"); 
   if (!fp) { 
     gf_log ("glusterfsd", 
     GF_LOG_ERROR, 
     "FATAL: could not open specfile: '%s'", 
     specfile); 
   exit (1); 
   } 
} else { 
     gf_log ("glusterfsd", 
     GF_LOG_DEBUG, 
     "main: specfile not provided as command line arg"); 
     argp_help (&argp, stderr, ARGP_HELP_USAGE, argv[0]); 
   exit (0); 

然后是判断环境ctx 的foreground 有值与否,没有值,就清空命令行的参数值,然后把argv[0]填充成[glusterfsd],生成守候进程,更新前面锁定的pidfile。 
if (!ctx.foreground) { 
   int i; 
   for (i=0;i 
初始化定时器,通过specfile 串对应文件构造出树来,关闭该文件,忽略管道信号 
SIGPIPE 
设置软中断处理函数为glusterfsd_cleanup_and_exit 这个清理函数。 
gf_timer_registry_init (&ctx); 
xlator_tree_node = get_xlator_graph (&ctx, fp);// 从文件中构造解释器树, 
//glusterfs.c 中有同名函数 
if (!xlator_tree_node) {//判断生成结果 
   gf_log ("glusterfsd", 
     GF_LOG_ERROR, 
     "FATAL: could not create node graph"); 
   exit (1); 

fclose (fp); 
/* Ignore SIGPIPE *///设置忽略的信号(sigpipe 管道) 
signal (SIGPIPE, SIG_IGN); 
#if HAVE_BACKTRACE //设置打印栈的信号处理 
/* Handle SIGABORT and SIGSEGV */ 
signal (SIGSEGV, gf_print_trace); 
signal (SIGABRT, gf_print_trace); 
#endif /* HAVE_BACKTRACE */ 
signal (SIGTERM, glusterfsd_cleanup_and_exit);//设置软中断处理函数 
最后进入循环,判断函数是transport.c 中的poll_iteration 函数。循环完毕关掉pidfile。 
while (!poll_iteration (&ctx)); 
close (pidfd); 
观察poll_iteration(&ctx)的实现,发现默认如果不设置ctx 的异步进程通信模式的话,默认是使用epoll 的,看代码: 
//transport.c 
int32_t 
poll_iteration (glusterfs_ctx_t *ctx) 

int32_t ret = 0; 
#ifdef HAVE_SYS_EPOLL_H 
switch (ctx->poll_type) 

   case SYS_POLL_TYPE_EPOLL: 
    ret = sys_epoll_iteration (ctx); 
    break; 
   case SYS_POLL_TYPE_POLL: 
    ret = sys_poll_iteration (ctx); 
    break; 
   default: 
    ctx->poll_type = SYS_POLL_TYPE_EPOLL; 
    ret = sys_epoll_iteration (ctx); 
    if (ret == -1 && errno == ENOSYS) { 
    ctx->poll_type = SYS_POLL_TYPE_POLL; 
    ret = sys_poll_iteration (ctx); 
    } 
    break; 
  } 
  #else 
    ret = sys_poll_iteration (ctx); 
  #endif 
   return ret; 

关于poll 和epoll 相关函数的实现都在poll.c 和epoll.c 里面。poll、epoll、select 
是网络编程和进程间通讯的三种模式。select 在BSD Unix 中引入, 而poll是System V 的解决方案. epoll 
调用添加在2.5.45, 作为使查询函数扩展到几千个文件描述符的方法。具体他们的区别可以查man 手册页。 
Client 客户端启动过程:(glusterfs-fuse/glusterfs.c) 
初始化glusterfs_ctx 环境中的日志文件位置,日志级别和poll 类型,这个和server端一样,另外声明了xlator 的图(树型),配置文件的指针,传输类型指针,还有就是系统资源限制,和调用池。 
xlator_t *graph = NULL; 
FILE *specfp = NULL; 
transport_t *mp = NULL; 
glusterfs_ctx_t ctx = { 
   .logfile = DATADIR "/log/glusterfs/glusterfs.log", 
   .loglevel = GF_LOG_ERROR, 
   .poll_type = SYS_POLL_TYPE_MAX, 
}; 
struct rlimit lim; 
call_pool_t *pool; 
同样需要设定系统资源限制的值,此处还可以设定debug 模式来使用mtrace() 
#ifdef HAVE_MALLOC_STATS 
#ifdef DEBUG 
   mtrace (); 
#endif 
   signal (SIGUSR1, (sighandler_t)malloc_stats); 
#endif 
   lim.rlim_cur = RLIM_INFINITY; 
   lim.rlim_max = RLIM_INFINITY; 
   setrlimit (RLIMIT_CORE, &lim); 
   setrlimit (RLIMIT_NOFILE, &lim); 
初始化环境的调用池,解析参数等等这些和server 是一样的。 
pool = ctx.pool = calloc (1, sizeof (call_pool_t)); 
   LOCK_INIT (&pool->lock); 
   INIT_LIST_HEAD (&pool->all_frames); 
argp_parse (&argp, argc, argv, 0, 0, &ctx); 
此处与server 不同,但无非是一些判断和检测,如测试ctx 的日志文件设置没,设置glusertfs 的全局日志级别为环境的日志级别 
if (gf_log_init (ctx.logfile) == -1) { 
   fprintf (stderr, 
   "glusterfs: failed to open logfile \"%s\"\n", 
   ctx.logfile); 
   return -1; 
   } 
   gf_log_set_loglevel (ctx.loglevel); 
针对解析的参数设定mount_point,此处为判断设定与否。下面是设定端口号,和配置文件的地方等等,都是做检测用的。 
if (!mount_point) { 
   fprintf (stderr, "glusterfs: MOUNT-POINT not specified\n"); 
   return -1; 
   } 
if (!spec.where) { 
   fprintf (stderr, "glusterfs: missing option --server=SERVER or --specfile= 
   VOLUME-SPEC-FILE\n"); 
   return -1; 
   } 
if (spec.spec.server.port) { 
   if (spec.where != SPEC_REMOTE_FILE) 
      { 
      fprintf (stderr, "glusterfs: -p|--port requires -s|--server option to be 
      specified\n"); 
      exit (EXIT_FAILURE); 
   } 

下面是通过配置文件来设定ctx,接下来就是一些中断屏蔽,中断处理函数的处理等等,这个和server 是一样的。 
specfp = get_spec_fp (&ctx); 
if (!specfp) { 
   fprintf (stderr, 
   "glusterfs: could not open specfile\n"); 
   return -1; 

/* Ignore SIGPIPE */ 
   signal (SIGPIPE, SIG_IGN); 
#if HAVE_BACKTRACE 
/* Handle SIGABORT and SIGSEGV */ 
   signal (SIGSEGV, gf_print_trace); 
   signal (SIGABRT, gf_print_trace); 
#endif /* HAVE_BACKTRACE */ 
接下来是当一切成员都初始化完毕时,此刻开始进行glusterfs 的挂载,下面和server 
一样生成守护进程。然后注册定时器,生成xlator 树并赋值给环境ctx 中的graph 成员,初始化FUSE 
的图,进入循环。后面的过程和server 类似,少许不同。所有的初始化过程都和ctx 环境有关,从携带变量,赋值等等,都是操作的ctx。 
if (!(mp = glusterfs_mount (&ctx, mount_point))) { 
   gf_log ("glusterfs", GF_LOG_ERROR, "Unable to mount glusterfs"); 
   return 1; 

if (!ctx.foreground) { 
/* funky ps output */ 
   int i; 
   for (i=0;ixl = fuse_graph (graph); 
// fuse_thread (&thread, mp); 
while (!poll_iteration (&ctx)); 
return 0; 

相关代码分析 
传输协议代码 
传输协议代码中体现了3 种可以使用的方式: 

ib-verbs:使用Infiniband verbs 层为RDMA(Remote Direct Memory Access) 通信. 这是最快的接口(1-4 ms). 

ib-sdp: 使用Infiniband SDP (sockets direct protocol) 为RDMA通信(70-90ms). 

tcp:使用普通TCP/IP 或IPoIB 内部连接. 假如有4 节点的集群,每台主机的NIC 带宽1G byte/s ,那么组合起来的带宽也有4G byte/s。 


下面是tcp 部分的分析: 
共4 个文件tcp.h 是接口定义文件,里面定义了几个tcp 操作的函数,接收,关闭连接等等,还定义了等待队列的结构体wait_queue 和一个tcp 状态的结构体tcp_private。Tcp.c 是头文件里面定义的函数的实现。 
Tcp-client.c:里面有关于建立连接的方法,tcp 客户端确认提交的方法,初始化传输和结束等方法。Tcp-server.c 里面也有相应的方法。 
3 种方法都是按照transport.h 定义的接口来实现的。这里用到了面向对象的思想和状态模式,transport.c 里面的相关方法对其多种“子类做了”dispatch。 
例如 
//transport.c 
int32_t 
transport_notify (transport_t *this, int32_t event) 

  int32_t ev = GF_EVENT_CHILD_UP; 
  if ((event & POLLIN) || (event & POLLPRI)) 
    ev = GF_EVENT_POLLIN; 
  if ((event & POLLERR) || (event & POLLHUP)) 
    ev = GF_EVENT_POLLERR; 
    return this->notify (this->xl, ev, this); 

该模块通过transport_op 这个结构体实现了“多态”,该结构体在transport.h 有接口定义(都是函数指针),而在每个连接方式的实现里面都声明一个实例,并按自己的方式初始化。 
//transport.h 
struct peer_info_t { //连接属性结构体含有套接字信息 
   struct sockaddr_in sockaddr; 
}; 
struct transport { //传输interface 
   struct transport_ops *ops; //操作功能结构体指针,相当于类函数 
   void *private; //私有信息,在子类中初始化 
   void *xl_private; //  
   pthread_mutex_t lock; //线程锁 
   int32_t refcount; //引用计数 
   xlator_t *xl; 
   void *dnscache; //dns 缓冲?作用不太明了 
   data_t *buf; //数据缓冲 
   int32_t (*init) (transport_t *this, //初始化函数 
     dict_t *options, 
     event_notify_fn_t notify); 
   struct peer_info_t peerinfo; //包含了前面定义的套接字信息 
   void (*fini) (transport_t *this); //“析构”函数 
   event_notify_fn_t notify; //消息 
}; 
struct transport_ops { //传输类的“成员函数“ 
   int32_t (*flush) (transport_t *this); 
   int32_t (*recieve) (transport_t *this, char *buf, int32_t len); 
   int32_t (*submit) (transport_t *this, char *buf, int32_t len); 
   int32_t (*writev) (transport_t *this, 
     const struct iovec *vector, 
     int32_t count); 
   int32_t (*readv) (transport_t *this, 
     const struct iovec *vector, 
     int32_t count); 
   int32_t (*connect) (transport_t *this); 
   int32_t (*disconnect) (transport_t *this); 
   int32_t (*except) (transport_t *this); 
   int32_t (*bail) (transport_t *this); 
}; 
在真正的实现里面会初始化,传输类的成员函数的,如Tcp-server.c 
//Tcp-server.c 
struct transport_ops transport_ops = { //此处初始化transport 类的成员函数,这里是多态 
// .flush = tcp_flush, //每个其具体实现都可以灵活定义自己的操作细节。 
.recieve = tcp_recieve, 
.disconnect = tcp_disconnect, //其具体实现也在本文件中。 
.submit = tcp_server_submit, 
.except = tcp_except, 
.readv = tcp_readv, 
.writev = tcp_server_writev 
}; 
调度器剖析 
调度器是给unify 的接口用的,在集群文件系统中,分数据块时绑定一个相应的调度器,来进行数据的分布式存取。有四种调度器,前面有提到了。调度操作接口比较简单,只要实现下列的接口函数的类就是一个调度器。 
//scheduler.h 
struct sched_ops { // 包括初始化,清理费料,更新,调度器逻辑,通知。 
   int32_t (*init) (xlator_t *this); 
   void (*fini) (xlator_t *this); 
   void (*update) (xlator_t *this); 
   xlator_t *(*schedule) (xlator_t *this, int32_t size); 
   void (*notify) (xlator_t *xl, int32_t event, void *data); 
}; 
该文件还定义了一个获得调度器的方法get_scheduler,具体实现在scheduler.c 里面,被unify.c 中调用(后面提unify.c). 
RR 调度器是最简单的,和下面要写的xlator 关系很密切。结构体如下: 
//rr.h 
struct rr_sched_struct { //rr 调度需要的一些属性如刷新间隔,剩余磁盘空间,可用性等等。。 
   xlator_t *xl; 
   struct timeval last_stat_fetch; 
   int64_t free_disk; 
   int32_t refresh_interval; 
   unsigned char eligible; 
}; 
struct rr_struct { //rr 结构体 
   struct rr_sched_struct *array; //包含rr 调度结构体的一个数组 
   struct timeval last_stat_fetch; 
   int32_t refresh_interval; //刷新时间间隔 
   int64_t min_free_disk; //最小的剩余空间 
   pthread_mutex_t rr_mutex; //线程锁 
   int32_t child_count; //节点计数 
   int32_t sched_index; //调度索引 
}; 
与接口的联系方式和transport 模块类似,实现了sched_ops 定义的操作。 
//rr.c 
struct sched_ops sched = { 
   .init = rr_init, 
   .fini = rr_fini, 
   .update = rr_update, 
   .schedule = rr_schedule, 
   .notify = rr_notify 
}; 
xlator与xlator_list 
Xlator 是一个有前驱和后继及父指针的节点类,其组成了xlator_list 
链表,另外系统使用它组成树结构来使用,schedulor 在初始化时是会遍历xlator_list 
的每个节点的。Xlator里面还包括了相关xlator 
的操作符xlator_fops、xlator_mops,和构造函数与析构函数,以及一些必要的数据,节点表指针,消息,glusterfs 
环境,配置选项字典(option)等等。 
//xlator.h 
struct _xlator { 
   char *name; 
   char *type; 
   xlator_t *next, *prev; 
   xlator_t *parent; 
   xlator_list_t *children; 
   struct xlator_fops *fops; 
   struct xlator_mops *mops; 
   void (*fini) (xlator_t *this); 
   int32_t (*init) (xlator_t *this); 
   event_notify_fn_t notify; 
   dict_t *options; 
   glusterfs_ctx_t *ctx; 
   inode_table_t *itable; 
   char ready; 
   void *private; 
}; 
typedef struct xlator_list { 
   xlator_t *xlator; 
   struct xlator_list *next; 
} xlator_list_t; 
Xlator_list 是一个关于xlator 的前向链表。 
Translators与hurd/GNU 
Translators 思路来自GNU/hurd 微内核的虚拟文件系统设计部分,一个translator 
是一个用于目标服务器与hurd 
分布式文件系统之间的普通程序。作用是对外部的文件系统做操作时,转换成目标文件系统适当的调用。Translators 
不需要特别的权限运行。在传统的unix 内核设计上,文件系统或虚拟文件系统都是在内核里面实现的,内核有绝对的机器访问权,在hurd 
上,使用的微内核设计,所以translator 使用的协议相关操作不需要特别权限来执行,在用户空间上执行。 
Translator 可以附着在节点上,每个tanslator 都是针对相应的功能设计的,比如rot-13是加密用的,Trace 是追踪,调试用的,performance 文件夹下的4 个translator 是用来性能调优用的。 
和translator 有直接关系的是这么几个文件,xlator.c 、xlator.h 
、default.h、,default.c 四个文件,后两个比较容易解释,就是其他translator 在定义fop 和mop 
时如果自己没有设定实现的话,便会使用默认实现,其实现就在这两个文件里面。也就是说这两个文件里面保含了所有的操作的定义。前两个文件在上节已经说过 
了。 
下图是glusterfs 使用的相关translator 所处的位置。相对于客户端来说,服务端的任务真的是很简单的,大部分translator 是工作在客户端的,比如,性能调优,调度器,合并器等等,而相反,服务端只需运行起来glusterfsd 就可以了。 

要设计一个translator 也比较容易, 除了需要一个初始化函数 
int32_t init (xlator_t *this) 
和收尾的函数 
void fini (xlator_t *this) 
还需要对xlator.h 中的xlator_fops、xlator_mops 两个结构体中,需要翻译的命令自己定义。 
//xlator_fops的定义,里面包括要求翻译的调用表,fops表示文件操作 
struct xlator_fops { 
   fop_lookup_t lookup; //前者是一个指向函数的指针 
   fop_forget_t forget; 
   fop_stat_t stat; 
     ………… 
   fop_lk_cbk_t lk_cbk; 
   fop_writedir_cbk_t writedir_cbk; 
}; 
结构体中每个属性都是个指向函数的指针,例: 
typedef int32_t (*fop_lookup_t) (call_frame_t *frame,xlator_t *this,loc_t *loc); 
xlator_mops的定义,里面包括要求翻译的调用表,mops表示管理操作 
struct xlator_mops { 
   mop_stats_t stats; 
   mop_fsck_t fsck; 
   mop_lock_t lock; 
   mop_unlock_t unlock; 
   mop_listlocks_t listlocks; 
   mop_getspec_t getspec; 
   mop_stats_cbk_t stats_cbk; 
   mop_fsck_cbk_t fsck_cbk; 
   mop_lock_cbk_t lock_cbk; 
   mop_unlock_cbk_t unlock_cbk; 
   mop_listlocks_cbk_t listlocks_cbk; 
   mop_getspec_cbk_t getspec_cbk; 
}; 
前面是需翻译的命令,翻译后的命令例子如下,以rot-13 为例: 
//rot-13.c 下面的赋值表示要翻译的两个调用, 管理操作以默认不做更改 
//(default.h,default.c) 
struct xlator_fops fops = { 
   .readv = rot13_readv, 
   .writev = rot13_writev 
}; //这里赋值结构体的方式是C99标准新出来的,其在linux2.6内核源码中有较多的使用。 
struct xlator_mops mops = { 
}; 
同样你把自己需要翻译过来的调用自己实现例如下: 
static int32_t 
rot13_writev (call_frame_t *frame, 
   xlator_t *this, 
   fd_t *fd, 
   struct iovec *vector, 
   int32_t count, 
   off_t offset){ do something } 
这样扩展一个translator 就完成了。 
translator 操作是异步的,这样可以减少网络上调用的延时造成性能下降。 
它使用STACK_WIND 和'STACK_UNWIND 维护一个用户空间的调用栈。在桩文件callstub.h 
文件中,里面有call_stub_t 结构体的定义,结构体里面含有一个联合,另外头文件还有相关调用的桩,call -stub.c 
里面是头文件接口的实现。 
// call-stub.h 
typedef struct { 
   struct list_head list; 
   char wind; 
   call_frame_t *frame; 
   glusterfs_fop_t fop; 
   union { //联合体里面包含了若干个结构体,其中每个结构体里面都是一个调用桩 
             //是一个指向函数的指针,和相关需要传递或保存的属性或结构(像函数对象?)。 
/* lookup */ 
   struct { 
     fop_lookup_t fn; 
     loc_t loc; 
   } lookup; 
………. 
} args; 
} call_stub_t; 
// call-stub.c 头文件中示例的实现 
call_stub_t * 
fop_lookup_stub (call_frame_t *frame, 
   fop_lookup_t fn, 
   loc_t *loc) 

   call_stub_t *stub = NULL; 
   stub = stub_new (frame, 1, GF_FOP_LOOKUP); 
   if (!stub) 
     return NULL; 
   stub->args.lookup.fn = fn; 
   loc_copy (&stub->args.lookup.loc, loc); 
   return stub; 

server-protocol/client-protocol 
Glusterfs 使用的协议是比较简单的,协议的定义可以在其官方网站有简短的描述。 
(来自代码注释protocol.h) 
All value in bytes. '\n' is field seperator. 
Field: 
================== 
"Block Start\n":12 
callid:16 
Type:8 
Op:8 
Name:32 
BlockSize:32 
Block: 
"Block End\n":10 
================== 
起始头12 个字节,调用id 16 个字节,操作类型8 个字节,操作指令8 个字节,操作名32 个字节,数据块大小32 个字节,然后是数据块,然后是包尾10 个字节。 
操作类型有四种:分别是请求和回应、对应当fop(文件操作),mop(管理操作) 
typedef enum { 
   GF_OP_TYPE_FOP_REQUEST, 
   GF_OP_TYPE_MOP_REQUEST, 
   GF_OP_TYPE_FOP_REPLY, 
   GF_OP_TYPE_MOP_REPLY 
} glusterfs_op_type_t; 
操作指令定义在glusterfs.h 里面两个枚举类型,一个fop,一个mop。 
服务端执行的是响应请求,所以收到的包中操作类型皆是request 类型的fop 或者mop,然后将之交给一个解释器函数,函数负责分析是fop 还是mop,然后转换成local系统的执行序列。这其中还包括一些传输的错误处理,参数不正确等等。 
该解释器通过调用相应的本地函数,处理完后返回的也是一个完整的协议数据包。 
该函数在server-protocol.c 文件中,声明如下: 
static int32_t 
server_protocol_interpret (transport_t *trans,gf_block_t *blk) 
此外服务端还需要维护一个响应队列。 
客户端就比较繁琐了,它需要负责连接,保持连接,握手等动作,另外它还和服务端一样,也有一个翻译器,负责解释收到的协议包的处理。 
由于客户端对其上层应用来说还得提供文件服务,所以它所需要提供的xlator_fops对象的成员函数比服务端提供的更多一些。 

该图是服务端与客户端建立连接之后,客户端请求一个命令,或传输一部分数据所需的过程示意图,最中间的部分是在网络中传输的协议包。顶部是客户端请求的指令,该指令一般是给更高层提供服务的。最下层是服务端处理请求的命令或数据给local 调用处理。 
相关的实用工具类 
Util 类:dict 、stack、list,自己实现的容器和必要的操作。Stack 用的是list 实现的。 
hashFn: 实现的一个最快速hash 算法, uint32_t SuperFastHash (const char * data, int32_t len)这个方法,来自网上一个实现。 
Lock:加锁,解锁的类。 
Logging:日志类,到文件的。 
rot-13:简单的一个加密类,没有错误检查的。 
Timer:定时器,记时器 
性能,优化的部分代码 
整体上,增加性能的优化方式就是利用缓冲,加之考虑其业务需求,比如频繁读写小文件,或是大量操作是读文件而很少写等等。利用其业务特点,适当的使用优化方式,源代码里面提供了4 种优化器,都是利用了translator 模式实现的。 
Readhead:预读技术,这个在操作系统中内存技术,外存技术和catch 技术中用到比较多了。大概的意思就是使用临近数据被访问的可能性较大的原理,做的预读的优化。 
Writebehind:后写技术,就是当需要回写硬盘时,先做一个缓冲区,然后等缓冲区满了,一次性写回硬盘,这样减少了使用系统调用,网络等开销。 
Io-cache:这个是利用多个服务端中多余内存来做缓冲用的,网站上有个性能测试,64 个服务端主机,每主机有8GB 
mem,使用io-catche 后,每个主机使用了6GB mem作为io 缓冲,共有64×6GB =384GB 
的数据缓冲区,这样可以大大减少外存的访问,提高了数据访问速度。 
Io-threads:io 线程化,AIO 添加了异步读写功能,使用这个translator,可以利用系统的idle 
进程堵塞时间来处理新到来的请求。当进入内核调用时系统会锁住资源,如cpu mem 等等,这样就不能利用其做其他工作了,该translator 
可以更好的改进此模型,是之更有效率。看其road map 是1.3 版本新加进来的特性。 
在cluster 文件夹下面有两个与性能有关的三个translator。 
分片技术strip:这个大意就是象RAID0 那样,可以加速保存和读取,但风险加大,所以在Stripe.c 文件的注释中,提示最好和下面的translator 一起使用,以保证安全。 
重复技术afr:这个就是象RAID1 那样,保存时写数据做双份。而且可以对相应的类型的文件做不同的设置。
Unify:组合了多个存储块到一个巨大的存储空间里面,前面介绍translator 时有写unify 在整个系统中所处的位置。 
当然对单个主机中文件系统的优化也是需要的,比如对ext3,reiserfs 的参数优化。 
全局看整个系统 
此处写的是个人体验,不一定都正确,供参考。 
Glusterfs 是一个存储空间和访问效率都可以线性增加的一个分布式文件系统,网上资料除了gluster.org 以外,几乎没有什么有关的介绍了。 
通过对源码的审阅,个人感觉,比较主要的是把程序的整体结构理清,扩展方式弄明白在向下看具体的实现是比较好的。 
该系统扩充的方式是使用了translator 的模式,具体我还参考了《现代操作系统》中分布式文件系统章节和GNU/HURD 中解释translator 的部分,后者主要是在gnu 的网站上。 
数据结构上讲,整个文件系统中节点构成了一棵树,而且每个节点的操作是通过某个translator 
来工作的,一个节点可以附着很多的translator。所有的translator都要实现xlator 
结构体和相关的xlator_fops、xlator_mops 
两个“成员函数的结构体”,从xlator“继承”下来的操作如果不自己定义,那么就会使用默认的设置,这个在default.c 
里面定义。当然自己定义的操作并赋值,这个过程有些象子类覆盖父类的操作,平行来看也就是多态。当然这是从面向对象角度来看的,该系统很多地方都使用了面 
向对象的思想来设计的,这个和linux 2.6 以后的内核模块设计是异曲同工的。 
那么一般可以这样识别一个用c 实现的Class 关键字的类: 
例(对源文件有些修改): 
struct A { 
   char *name; 
   char *type; //成员 
   struct A *this; //this 指针 
   struct xlator_fops *fops; //成员操作结构体1 
   struct xlator_mops *mops; //成员操作结构体2 
   void (*fini) (struct A *this); // 析构函数,垃圾清理 
   int32_t (*init) (struct A *this);//构造函数,初始化 
   event_notify_fn_t notify; //成员。。 
   dict_t *options; 
   glusterfs_ctx_t *ctx; 
   inode_table_t *itable; 
   char ready; 
   void *private; 
}; 
1.一个struct 定义里面包含一个指针该指针的类型是该struct 定义的类型。 
2.上面的struct 内部成员中含有其他结构体的指针,象xlator_fops 就是这里提到的其他结构体的指针,该结构体里面全部都是指向函数的指针,也就是成员函数了。 
当然此处也可以把xlator_fops 里面的成员都释放到struct A 里面, 但是这样这个struct 就显得有些臃肿了,,毕竟成员函数还是不少的。上面这个例子还有两个只有类才具备的析构函数,和构造函数。 
glusterfs_ctx 控制了全局的信息,很多地方传输都是使用它来传递的,一个典型的环境类。初始化些东西也是针对它来做的。 
Redhat GFS 和Glusterfs 的目的类似,都是以全局在一个命名空间下而通过访问其他节点获取数据的。此处没有性能比较。 
Lustre 也是一个开源基于GNU lisence 的集群文件系统,网站资源比较丰富,开发者的资源也比较多,中文资料也不少,sun 公司收购了clusterfs 公司,拥有了此技术。 
下面地址显示的是lustre 与glusterfs 做相当命令所需时间的比较: 
http://www.gluster.org/docs/index.php/GlusterFS_1.3.pre2-VERGACION_vs_Lustre-1.4.9.1_Various_Benchmarks 
下面的地址是NFS 与glusterfs 性能的测试对比: 
http://www.gluster.org/docs/index.php/GlusterFS_1.2.1-BENKI_Aggregated_I/O_vs_NFSv4_Benchmark
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值