今天的任务应该是把开发库的数据同步到测试库上,弄了一天,一直报错。
question 1: 同步数据失败
数据量也不是很大,加一起就几个g的sql文件。报错Table ‘xxx’ is full,原本以为是数据库虚拟内存不够,去my.cnf里面修改配置文件 。先运行的这两条命令试了试
set global max_allowed_packet = 2000 * 1024 * 1024;
发现还是不行,找了几个大佬也没有解决。最后一次同步数据之后,mysql直接挂掉了,然后一直restarting(这里是用docker-compose命令启动的,在yml文件中可以配置参数,失败了自动重启)。然后就炸掉了....
最后请大佬定位问题,发现是linux的内存满了....清理内存过后,同步数据正常
question 2: 清理掉了所有的binglog日志,导致mysql主从无法正常连接
由于内存不够,就去把mysql的备份和同步日志都清除了。一下子清理出几十个g的内存,爽快~
然后就炸掉了,从库数据无法同步。
在从库下执行 show slave status\G发现
slave_io_running connecting
slave_sql_running no
这时候主库又宕机了,一直重启
第一次的解决方案:注释掉主库的binglog配置,主库正常启动,但是主从无法继续连接。
第二次的解决方案:清空binlog的index文件,
主库执行flush logs;
show master status;
在从库执行
CHANGE MASTER TO MASTER_LOG_FILE='testdbbinlog.000008',MASTER_LOG_POS=107;
slave start;
show slave status \G
还是不行 slave_io_running一直是no,
最后又执行了
stop slave;
reset slave;
start slave;
好吧,这下终于成功了。
本文分享了在MySQL数据同步过程中遇到的“Table ‘xxx’ is full”错误及解决方法,以及因清理binlog日志导致主从复制中断的问题与最终解决方案。
811

被折叠的 条评论
为什么被折叠?



