Linux运维之——RHSC集群:Luci Ricci实现高可用Web服务

一、什么是RHCS?

RHCS即 RedHat Cluster Suite ,中文意思即红帽集群套件,它是一套综合的软件组件,可以通过在部署时采用不同的配置,以满足企业对高可用性,负载均衡,可扩展性,文件共享和节约成本的需要。
它提供有如下两种不同类型的集群:

  •   高可用性:应用/服务故障切换-通过创建n个节点的服务器集群来实现关键应用和服务的故障切换
  •  负载均衡:IP 负载均衡-对一群服务器上收到的 IP 网络请求进行负载均衡

二、RHCS 集群组成

1、 集群架构管理器

这是RHCS 集群的一个基础套件,提供您一个集群的基本功能,使各个节点组成的集群在一起工作,具体包含

分布式集群管理器(CMAN)

它运行在各个节点上,为RHCS提供集群管理任务

CMAN 用于管理集群成员、消息和通知。他通过监控每个节点的运行状态来了解节点成员之间的关系,当节点出现故障时,CMAN及时将这种改变通知底层,进而做出相应的调整

成员关系管理、锁管理(DLM)

表示一个分布式锁管理器,他是RHCS的一个底层基础构建,同时也为集群提供了一个公用的锁运行机制,在RHCS中,DLM运行在集群的每个节点上,GFS通过锁管理机制来同步访问数据系统元数据,CLVM通过锁管理其来同步更新数据到LVM卷和逻辑卷, DLM 不需要设定锁骨哪里服务器,它采用对等的锁管理方式,大大提高了处理性能,同时,DLM避免了当单个节点失败需要整体恢复的性能瓶颈,另外,DLM的请求都是本地的,不需要网络请求,因而请求会立即生效,最后,DLM通过分层机制,可以实现多个锁空间的并行管理模式

配置文件管理(CCS)

ClusterConfigurationSystem,简称CCS,主要用于集群配置文件管理和配置文件在节点之间的同步。有时候,luci管理界面可能由于网络等方面的以素并不是那么畅快,CCS就显得很必要了。CCS运行在集群的每个节点上,监控每个集群节点上的单一配置文件/etc/cluster/cluster.conf的状态,当这个文件发生任何变化时,都将此变化更新到集群中的每个节点,时刻保持每个节点的配置文件同步。

例如:

    管理员在节点A上更新了集群配置文件,CCS发现A节点的配置文件发生变化后,马上将此变化传播到其它节点上去。

rhcs的配置文件是cluster.conf,它是一个xml文件,具体包含集群名称、
集群节点信息、集群资源和服务信息、fence设备等

栅设备(FENCE)

FENCE设备是RHCS集群中必不可少的一个组成部分,通过FENCE设备可以避免因出现不可预知的情况而造成的“脑裂”现象,FENCE设备的出现,就是为了解决类似这些问题,Fence设备主要就是通过服务器或存储本身的硬件管理接口,或者外部电源管理设备,来对服务器或存储直接发出硬件管理指令,将服务器重启或关机,或者与网络断开连接

FENCE的工作原理是: 当意外原因导致主机异常或者宕机时,备机会首先调用FENCE设备,然后通过FENCE设备将异常主机重启或者从网络隔离,当FENCE操作成功执行后,返回信息给备机,备机在接到FENCE成功的信息后,开始接管主机的服务和资源。这样通过FENCE设备,将异常节点占据的资源进行了释放,保证了资源和服务始终运行在一个节点上。

RHCS的FENCE设备可以分为两种:内部FENCE和外部FENCE,常用的内部FENCE有IBMRSAII卡,HP的iLO卡,还有IPMI的设备等,外部fence设备有UPS、SANSWITCH、NETWORKSWITCH等
 

2、高可用服务管理器(rgmanager)

提供节点服务监控和服务故障转移,当一个节点服务出现故障时,将服务转移到另一个健康的节点上。

高可用性服务管理主要用来监督、启动和停止集群的应用、服务和资源。它提供了一种对集群服务的管理能力,当一个节点的服务失败时,高可用性集群服务管理进程可以将服务从这个失败节点转移到其它健康节点上来,并且这种服务转移能力是自动、透明的。RHCS通过rgmanager来管理集群服务,rgmanager运行在每个集群节点上,在服务器上对应的进程为clurgmgrd。

在一个RHCS集群中,高可用性服务包含集群服务和集群资源两个方面,集群服务其实就是应用服务,例如apache、mysql等,集群资源有很多种,例如一个IP地址、一个运行脚本、ext3/GFS文件系统等。

在RHCS集群中,高可用性服务是和一个失败转移域结合在一起的,所谓失败转移域是一个运行特定服务的集群节点的集合。在失败转移域中,可以给每个节点设置相应的优先级,通过优先级的高低来决定节点失败时服务转移的先后顺序,如果没有给节点指定优先级,那么集群高可用服务将在任意节点间转移。因此,通过创建失败转移域不但可以设定服务在节点间转移的顺序,而且可以限制某个服务仅在失败转移域指定的节点内进行切换。

3、集群配置管理工具(luci和ricci)

Conga是一种新的基于网络的集群配置工具,Conga是通过web方式来配置和管理集群节点的。Conga有两部分组成,分别是luci和ricci,luci安装在一台独立的计算机上,用于配置和管理集群,ricci安装在每个集群节点上,Luci通过ricci和集群中的每个节点进行通信。

     通过LUCI 来管理和配置RHCS集群,LUCI是一个基于web的集群配置方式,通过luci可以轻松的搭建一个功能强大的集群系统,节点主机可以使用ricci来和luci 管理段进行通信

RHCS也提供了一些功能强大的集群命令行管理工具,常用的有clustat、cman_tool、ccs_tool、fence_tool、clusvcadm等。

4、Linux virtual server

LVS 是一个开源的负载均衡软件,利用LVS 可以将客户端的请求根据指定的负载策略和算法合理分配到各个节点,实现动态、智能的负载分担。

5、GFS(global  file  system) / RedHatGS

GFS 是Redhat公司开发的一款集群文件系统,目前最新的版本是GFS2,GFS文件系统允许多个服务同时读写一个磁盘分区,通过GFS可以实现数据的集中管理,免去了数据同步和拷贝的麻烦,但GFS不能独立存在,需要RHCS的底层组件支持。

GFS是

<think>我们正在讨论LiniSCSI的主从节点替换方法。根据用户的问题,他们希望了解如何使用Lin iSCSI来替换从节点。在之前的对话中,我们可能已经讨论过一些关于RHSC(RedHat StorageConsole)的配置,特别是关于fencing设备的设置(如引用[1]所示)。但是,用户现在的问题是关于iSCSI的主从节点替换。在RHSC中,iSCSI通常用于提供共享存储。主从节点可能指的是高可用集群中的节点,其中主节点负责提供iSCSI服务,从节点作为备用。替换从节点通常涉及以下步骤:1.准备新节点:安装操作系统,配置网络,确保新节点满足加入集群的所有要求。2.将新节点加入集群:使用集群管理工具(如Pacemaker)将新节点加入集群。3.配置存储:确保新节点可以访问相同的iSCSI存储。4.配置fencing设备:这是关键步骤,以确保集群能够正确处理节点故障。需要在新节点上配置fencing设备,就像在引用[1]中所示的那样。5.测试故障转移:确保当主节点发生故障时,服务可以转移到新的从节点(现在可能是主节点)上。但是,用户的问题具体是“LinISCSI主从节点替换方法”,可能指的是在基于Linux的iSCSI环境中如何替换从节点。这里有两种可能的情况:a)替换现有的从节点(例如,因为硬件故障或升级)。b)将一个新的节点配置为从节点,以替换旧的从节点。步骤大致如下:情况a:替换现有的从节点(故障节点)1.从集群中移除故障节点。2.添加新节点到集群,并配置相同的iSCSI目标。3.配置集群资源以在新节点上运行。情况b:正常替换(例如升级)1.将新节点加入集群,并配置为从节点(备用节点)。2.将服务从旧从节点迁移到新从节点(如果需要)。3.移除旧节点。具体到iSCSI,我们需要确保新节点能够访问相同的iSCSI存储。通常,这包括:-安装iSCSI启动器(initiator)软件包。-发现iSCSI目标(target)。-登录到iSCSI目标,并确保在启动时自动重新登录。-配置多路径(如果使用多路径)等。另外,在集群配置中,我们需要确保资源约束正确,以便新节点可以接管服务。由于用户之前提到了RHSC,我们可以假设他们使用的是RedHat的高可用集群。因此,我们可以参考RedHat的文档来执行这些步骤。但是,用户的问题中没有提供具体的集群管理工具,所以我们给出一般步骤。下面我们将详细说明替换从节点的步骤。</think>### Lin iSCSI主从节点替换方法 在Linux iSCSI环境中替换从节点(备用节点)需要确保服务高可用性和数据一致性。以下是标准替换流程: #### **核心步骤** 1. **准备新节点** - 安装相同版本的Linux发行版和`iscsi-initiator-utils`包 - 配置网络(确保与主节点相同子网) - 复制主节点的iSCSI配置: ```bash scp root@主节点IP:/etc/iscsi/iscsid.conf /etc/iscsi/ ``` 2. **加入iSCSI存储** - 发现目标存储: ```bash iscsiadm -m discovery -t st -p 存储服务器IP ``` - 登录到LUN(逻辑单元号): ```bash iscsiadm -m node -T 目标名称 -p 存储服务器IP -l ``` - 验证连接: ```bash lsblk | grep sdX # 确认新磁盘出现 ``` 3. **配置高可用集群**(以Pacemaker为例) - 添加新节点到集群: ```bash pcs cluster node add 新节点主机名 ``` - 配置fencing设备(关键步骤): ```bash pcs stonith create fence_新节点 fence_ipmilan ipaddr=IPMI_IP \ login=USER passwd=PASSWD action=reboot ``` 引用[1]中提到的fencing配置是确保脑裂防护的核心机制[^1]。 4. **数据同步** - 若使用DRBD(分布式复制块设备): ```bash drbdadm new-current-uuid 资源名称 drbdadm primary --force 资源名称 ``` 5. **切换流量** - 迁移集群资源: ```bash pcs resource move 资源组 新节点 ``` - 移除旧节点: ```bash pcs cluster node remove 旧节点主机名 ``` #### **关键注意事项** - **fencing验证**:必须测试IPMI/硬件fencing确保节点隔离功能正常[^1] - **脑裂防护**:`pcs property set stonith-enabled=true` 启用全局fencing - **存储一致性**:替换前确保`fsfreeze`冻结文件系统(对数据库尤为重要) - **回滚方案**:保留旧节点在线直至新节点通过所有服务测试 #### **验证命令** ```bash pcs status # 检查集群状态 iscsiadm -m session -P 3 # 查看iSCSI会话详情 multipath -ll # 检查多路径配置 ``` > **故障场景处理**:若主节点故障,需先`pcs cluster standby 旧节点`停用旧节点,再提升新节点为`primary`。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值