【翻译自mos文章】aix上"Cluster Node Information" or "Specify Cluster Configuration" 窗口中不显示节点并且add 按钮是灰色的

本文解决在安装Oracle集群管理软件(CRS或11gR2 Grid Infrastructure)时遇到的问题,即ClusterNodeInformation或SpecifyClusterConfiguration窗口不显示节点,并且add按钮是灰色的。问题原因在于IBM HACMP或Power HA程序在卸载时未完全清除。通过移除所有节点上的/usr/sbin/cluster/utilities/cldomain并重启OUI,可以解决此问题。

aix上"Cluster Node Information" or "Specify Cluster Configuration"  窗口中不显示节点并且add 按钮是灰色的

来源于:

适用于:
Oracle Server - Enterprise Edition - Version: 10.2.0.1 and later   [Release: 10.2 and later ]
IBM AIX on POWER Systems (64-bit)

症状:
安装Oracle Clusterware(CRS or 11gR2 Grid Infrastructure),"Cluster Node Information" or "Specify Cluster Configuration"窗口不显示任何的节点,并且 add 按钮是灰色的

安装日志如下:

[main] [10:21:20:345] [sQueryCluster.isCluster:74]  LKMGR file =/usr/sbin/cluster/utilities/cldomain
[main] [10:21:20:346] [QueryCluster.<init>:49]  Detected Cluster
[main] [10:21:20:346] [QueryCluster.isCluster:65]  Cluster existence check = true

补充一点:
关于安装日志的位置,请见如下的文章Location Of Logs For OPatch And OUI (文档 ID 403212.1)

原因:

原因是IBM HACMP (or PowerHA) 程序 在HACMP被卸载时没有remove 干净(cleanly).当HACMP被卸载(deinstalled)之后,ls命令依然能看到HACMP命令:

$ ls -l /usr/sbin/cluster/utilities/cldomain
 lrwxrwxrwx    1 root     system           29 Sep 21 13:54 /usr/sbin/cluster/utilities/cldomain -> /opt/VRTSvcs/rac/bin/cldomain

Oracle OUI 依靠/usr/sbin/cluster/utilities/cldomain 来确认 vendor Clusterware 是否存在。如果存在,Oracle OUI 会在HACMP的上方被安装并从HACMP 处获取node的list

在此case中,由于HACMP被检测到,OUI 将不会允许用户来手工敲入节点信息,但是,由于HACMP被deinstalled,HACMP没有任何的节点成员信息。

解决方案:
解决方案是从所有的节点上 remove掉 /usr/sbin/cluster/utilities/cldomain,并重新启动OUI

 

### Kubernetes 集群中配置 etcd 节点的步骤 在 Kubernetes 集群中,`etcd` 是一个分布式的键值存储系统,用于存储集群的配置数据和状态信息。如果在部署或管理集群时遇到 `Kubernetes cluster requires at least one etcd plane host` 的错误,这意味着集群配置中未正确指定 `etcd` 节点。为了解决这个问题,需要在集群配置文件中明确指定至少一个 `etcd` 节点。 #### 配置 etcd 节点的步骤 在使用 `kubeadm` 部署 Kubernetes 集群时,可以通过修改 `kubeadm` 的集群配置文件(通常为 `kubeadm-config.yaml`)来指定 `etcd` 节点。以下是一个典型的配置示例: ```yaml apiVersion: kubeadm.k8s.io/v1beta3 kind: ClusterConfiguration kubernetesVersion: stable controlPlaneEndpoint: "LOAD_BALANCER_DNS:LOAD_BALANCER_PORT" etcd: local: serverCertSANs: - "etcd-node1" peerCertSANs: - "etcd-node1" dataDir: /var/lib/etcd networking: podSubnet: 10.244.0.0/16 ``` 在上述配置中,`etcd` 字段定义了本地 `etcd` 节点的配置。`serverCertSANs` 和 `peerCertSANs` 用于指定证书的 SAN(Subject Alternative Name),以确保 `etcd` 节点之间的通信是安全的。`dataDir` 指定了 `etcd` 存储数据的目录路径。 #### 配置多节点 etcd 集群 如果需要配置一个高可用的 `etcd` 集群,可以在 `kubeadm-config.yaml` 中使用 `external` 字段来指定外部的 `etcd` 节点。以下是一个配置示例: ```yaml apiVersion: kubeadm.k8s.io/v1beta3 kind: ClusterConfiguration kubernetesVersion: stable controlPlaneEndpoint: "LOAD_BALANCER_DNS:LOAD_BALANCER_PORT" etcd: external: endpoints: - https://etcd-node1:2379 - https://etcd-node2:2379 - https://etcd-node3:2379 caFile: /etc/kubernetes/pki/etcd/ca.crt certFile: /etc/kubernetes/pki/etcd/client.crt keyFile: /etc/kubernetes/pki/etcd/client.key networking: podSubnet: 10.244.0.0/16 ``` 在上述配置中,`external` 字段定义了外部 `etcd` 节点的地址。`endpoints` 列出了所有 `etcd` 节点的地址,`caFile`、`certFile` 和 `keyFile` 分别指定了 CA 证书、客户端证书和私钥的路径。 #### 初始化集群 完成 `kubeadm-config.yaml` 文件的配置后,可以使用以下命令初始化集群: ```bash kubeadm init --config=kubeadm-config.yaml ``` 该命令将根据配置文件中的设置初始化 Kubernetes 集群,并确保 `etcd` 节点被正确配置和启动。 #### 配置 kubectl 初始化完成后,需要配置 `kubectl` 以便能够管理集群。执行以下命令将 `admin.conf` 文件复制到 `.kube` 目录,并设置适当的权限: ```bash mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config ``` 这些命令将 `admin.conf` 文件复制到用户的 `.kube` 目录中,并设置文件的所有权,以便用户可以使用 `kubectl` 命令管理集群[^2]。 #### 检查 etcd 状态 在集群初始化完成后,可以通过以下命令检查 `etcd` 的状态: ```bash kubectl get nodes kubectl get pods -n kube-system ``` 这些命令将显示集群中的节点和 `kube-system` 命名空间中的 Pod 状态,以确认 `etcd` 是否正常运行。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值