关键的代码和正则表达式在这里
while((line=br.readLine())!=null)
{
String[] data=new String[4];
data=line.split("\\s{1,}");
String sql="insert into cat_keyword values('"+data[0]+"','"+data[1]+"','"+data[2]+"','"+data[3]+"')";
stmt.executeUpdate(sql);
}
}
如果用简单的“ ”做分隔符,那么就无法处理有好多空格的情况,数据和表格字段根本对不上,也就无法正确入库了,所以这段小代码还是很有用处的。
其实也可以用mysql自带的命令
load data local infile “c:/data.txt”
into table person(name,age,city,salary,address);
后者导入速度要比前者快很多,很多。。我是用200万条数据测试的,后者6分钟就可以了。前者要几个小时。。所以大数据还是推荐第二种处理方法。
本文详细介绍了如何通过优化代码逻辑,有效处理含有大量空格的数据,确保正确入库。同时,对比MySQL自带命令进行数据导入的速度优势,推荐在大数据场景下使用后者,以显著提高处理效率。通过实际案例分析,展示了不同方法在200万数据量级上的性能差异,为开发者提供了实用的技术指导。

被折叠的 条评论
为什么被折叠?



