9i dg 不传log

 

首先查看环境。9207的数据库,主备库都在同一台主机,hp系统。

 

检查主备库的 fal_server fal_client archive 参数,没有问题。

Tnsping 主备库的设置没有问题。

检查监听和SID设置没有问题。

 

检查主备库的告警日志,在主库有如下信息:

Wed Nov  7 07:53:23 2012

ARC2: Begin FAL noexpedite archive (thread 1 sequence 1896 destination xx_xxxxx)

Creating archive destination LOG_ARCHIVE_DEST_2: 'xx_xxxxx'

ARC2: Complete FAL noexpedite archive (thread 1 sequence 1896 destination xx_xxxxx)

 

备库没有看到异常的信息。

V$archivelog_dest 也没有错误,都是valid的。

 

觉得问题在主库端的归档设置,没有和DG联通过。

 

Down掉备机,切主库LOG,主库的确没有发现备库已经DOWN掉。

 

设置都是正常的,都能tnsping 通,问题可能是LOG_ARCHIVE_DEST_2设置的名字过长,

这个原因还真的有点难以接受,但是从设置和LOG来看可能性还比较大。

 

于是把主库的LOG_ARCHIVE_DEST_2 改为4位,手动切换log,马上看到LOG信息中

出现了reject,期盼的reject啊。

 

把两端的参数都改成4~5位。

 

重启了一把备库,主库。正常了。

 

真的是名字太长吗?

 

于是把主备库的相关 tns,归档路径,fal 参数都改成12位全字母。测试是正常的。

 

难道是名字包含“_”的原因?把主备改成 “p_d”, “d_g” 的三个字符形式,再测试,还是正常的。

 

。。。。。。。。我心情复杂。

 

把所有的参数名字都改成我刚刚拿到问题的时候,再试,还是正常的。

 

悬案。求解。

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/10113559/viewspace-748608/,如需转载,请注明出处,否则将追究法律责任。

转载于:http://blog.itpub.net/10113559/viewspace-748608/

内容概要:本文档详细介绍了在三台CentOS 7服务器(IP地址分别为192.168.0.157、192.168.0.158和192.168.0.159)上安装和配置Hadoop、Flink及其他大数据组件(如Hive、MySQL、Sqoop、Kafka、Zookeeper、HBase、Spark、Scala)的具体步骤。首先,文档说明了环境准备,包括配置主机名映射、SSH免密登录、JDK安装等。接着,详细描述了Hadoop集群的安装配置,包括SSH免密登录、JDK配置、Hadoop环境变量设置、HDFS和YARN配置文件修改、集群启动与测试。随后,依次介绍了MySQL、Hive、Sqoop、Kafka、Zookeeper、HBase、Spark、Scala和Flink的安装配置过程,包括解压、环境变量配置、配置文件修改、服务启动等关键步骤。最后,文档提供了每个组件的基本测试方法,确保安装成功。 适合人群:具备一定Linux基础和大数据组件基础知识的运维人员、大数据开发工程师以及系统管理员。 使用场景及目标:①为大数据平台搭建提供详细的安装指南,确保各组件能够顺利安装和配置;②帮助技术人员快速掌握Hadoop、Flink等大数据组件的安装与配置,提升工作效率;③适用于企业级大数据平台的搭建与维护,确保集群稳定运行。 其他说明:本文档仅提供了详细的安装步骤,还涵盖了常见的配置项解释和故障排查建议。建议读者在安装过程中仔细阅读每一步骤,并根据实际情况调整配置参数。此外,文档中的命令和配置文件路径均为示例,实际操作时需根据具体环境进行适当修改。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值