最近有个discuz 在线论坛的数据库需要到在线下部署一个数据库
导出的文件大概4个G
使用 nohup mysql -ubackuper -p bbs_test < /var/mysql/backup/bbstm51.sql &
导入时观察写入只有4M/S 并且IO等待非常高
iostat -d -k 2 1000
[root@mysql01 ~]# iostat -d -m 2 1000
Linux 2.6.32-431.el6.x86_64 (mysql01) 12/10/2015 _x86_64_ (4 CPU)
Device: tps MB_read/s MB_wrtn/s MB_read MB_wrtn
xvda 0.38 0.00 0.01 7414 43364
xvde 75.05 0.00 0.34 9532 1073235
Device: tps MB_read/s MB_wrtn/s MB_read MB_wrtn
xvda 1.50 0.00 0.01 0 0
xvde 1131.00 0.00 4.42 0 8
修改了 /etc/my.cnf
autocommit=1
导入大文件有问题
手上有一堆小sql文件但很多,写了一个脚本循环处理
#!/sin/bash
for cursql in `find /var/mysql/backup/tmtest/ -name '*.sql'`
do
mysql -ubackuper -pklasd%^B55234 tm_bbs_test2 --default-character-set=gbk < $cursql
echo $cursql
done
这里注意 '*.sql' 中的单引号是必须加的