oracle rac 12c新增节点

本文档详述了在Oracle RAC环境中新增节点的具体步骤,包括SSH配置、Clusterware及数据库实例的扩展过程,以及常见问题的解决方案。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

#rac新增加节点执行 ssh配置(grid用户和oracle都需要配置)
su - grid
cd $HOME
mkdir .ssh
chmod 700 .ssh
cd .ssh
ssh-keygen -t rsa
#节点1合成authorized_keys并scp到节点2
#cat  *rsa.pub >> authorized_keys
#scp authorized_keys grid@rac2:/home/grid/.ssh
#节点2继续合成并scp到节点3
#cat  *rsa.pub >>authorized_keys
scp authorized_keys grid@rac3:/home/grid/.ssh
#节点3继续合成并scp到节点1和2
cat  *rsa.pub >> authorized_keys
scp authorized_keys grid@rac1:/home/grid/.ssh
scp authorized_keys grid@rac2:/home/grid/.ssh


ssh rac2 date
ssh rac1 date 
ssh rac3 date
ssh rac1-priv date
ssh rac2-priv date
ssh rac3-priv date




#配置新添加节点,按已有节点配置,验证已有节点与新增加节点是否匹配
cluvfy comp peer -refnode rac1 -n rac3 -verbose


#在已有节点上grid和oracle用户下验证
cluvfy stage -pre nodeadd -n rac3 -verbose




#grid用户在已有节点上执行增加Clusterware操作
cd $ORACLE_HOME/addnode
./addnode.sh -silent "CLUSTER_NEW_NODES={rac3}" "CLUSTER_NEW_PRIVATE_NODE_NAMES={rac3-priv}" "CLUSTER_NEW_VIRTUAL_HOSTNAMES={auto}" "CLUSTER_NEW_NODE_ROLES={hub}"


#执行期间遇到检测错误如下
#[FATAL] [INS-13013] 目标环境不满足一些必需要求。
#原因: 不满足一些必需的先决条件。有关详细信息, 请查看日志。/u01/oraInventory/logs/addNodeActions2017-04-06_10-57-53AM.log
#查看日志,因为当初图形安装的时候没有配置dns,选择忽略,dbca安装时即使配置了dns一样执行安装通过不了
#解决方式切换到root用户移除dns配置文件,然后重新执行添加节点命令
mv /etc/resolv.conf /etc/resolv.conf.bak


#此时会自动从rac1复制安装文件到rac3,并自动配置Clusterware,执行完提示运行脚本,在新节点上以root执行脚本
/u01/oraInventory/orainstRoot.sh
$ORACLE_HOME/root.sh
#执行root.sh脚本时提示Check /u01/grid/product/install/root_rac3_2017-04-05_11-36-36.log for the output of root script
#此处一定要查看是否配置成功,如失败,以root执行/u01/grid/product/crs/install/rootcrs.pl -deconfig -force,然后重新执行root.sh






#以oracle用户在已有节点上执行安装db操作
cd $ORACLE_HOME/addnode
./addnode.sh -silent "CLUSTER_NEW_NODES={rac3}"


#执行完提示运行脚本,在新节点上以root执行脚本
$ORACLE_HOME/root.sh




#在已有节点上添加实例(在新增节点上执行失败),由于是admin managed模式,使用dbca安装实例,policy managed修改serverpool即可
dbca -silent -addInstance -nodeList rac3 -gdbName rdato -instanceName rdato3 -sysDBAUserName sys -sysDBAPassword aa



#查看serverpool
srvctl config serverpool






#执行完后检查集群层以及应用层是否正常
#集群层
crsctl check crs
crsctl check cluster -all
crsctl status res -t
#应用层
srvctl status nodeapps
srvctl status asm
srvctl status listener
srvctl status instance -d rdato -i rdato1,rdato2,rdato3


#恢复dns
mv /etc/resolv.conf.bak /etc/resolv.conf


#grid用户检查节点安装是否成功
cluvfy stage -post nodeadd -n rac3 -verbose





 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值