背景:
从Oracle导出单表的数据为49万多(如:图一)的数据,用toad导出excel每次都说out of memory,所以就导出txt格式,然后用navicat导入这个txt格式的文件到mysql数据库。

问题有两个
第一个问题: 第一次导入的时候,中文字符是乱码,查看以下几点:
解决方法:
- 表中该字段的字符集是否是utf8或者是utf8mb4,发现是latin,修改过来,但还是乱码
- 发现源文件并不是乱码,导入时候是乱码,源文件用记事本打开,另存时候,将编码为ANSI改成UTF8,保存之后,在导入,导入没有乱码了

第二个问题:虽然导入数据库,中文字段不是乱码了,但数据量少了好多,源库有49万多的数据,只导入5.5万的数据,就停止了,而且没有报错,说是成功 - 将txt文件用记事本打开,再另存(注意编码还是UTF8),保存为csv格式,比如:test.txt变成test.csv,然后再用navicat导入,以txt格式导入,就可以成功导入数据了(如图三)。

目标端数据库验证(如图四):
±---------+
| count(1) |
±---------+
| 497051 |
±---------+
1 row in set (0.16 sec)

文章详细记录了解决从Oracle导出大量数据至MySQL时遇到的中文乱码及数据导入不完全的问题。通过调整文件编码及转换文件格式,成功解决了数据导入的两大难题。
1298

被折叠的 条评论
为什么被折叠?



