引导关注商务学习动图
最近接到一个需求,通过选择的时间段导出对应的订单数据到excel中, 由于数据量较大,经常会有导出500K+数据的情况。平常的导出用的PHPexcle,将数据一次性读取到内存中再一次性写入文件,而在面对生成超大数据量的excel文件时这显然是会造成内存溢出的。
这时就需要循环批量写入excle导出。
过程中可能遇到的问题:
1.超时:Maximum execution time of 30 seconds exceeded
解决:在文件开头加上 set_time_limit(0);即php执行时间不受限制。
2.内存溢出:Allowed memory size of 134217728 bytes exhausted (tried to allocate 20480 bytes)
解决:
2.1 可在ini文件设置;设置memory_limit,将内存设置加大,
2.2 在执行代码前加上 ini_set("memory_limit", "1024M");
2.3 每次读取的数据量减少,增加循环的次数;
3.导出的excle数字过长展示成科学计数
解决:
3.1 在要写入的数字数据,后面加个 “\t”;
3.2 或是数字转换为字符串格式
上代码(生成excle链接导出数据):
public function downBigExcle()
{
set_time_limit(0);
#自定义导出地址+文件名
$pathName = time().'.csv';
#计算要导出总数据条数
$totalNums = Db::table('t_excle')->count('id');
#设置表头标题
$headerTitleArr = ['xx','xxx'];
#CSV的Excel支持GBK编码,一定要转换,否则乱码
foreach ($headerTitleArr as $i => $v) {
$headerTi

在面临导出500K+数据的PHPExcel任务时,直接内存读写会导致内存溢出。为解决此问题,可以采用循环批量写入Excel的方式来优化。当数据量过大,推荐使用swoole异步框架,实现后台异步导出,避免阻塞其他请求。导出流程包括:客服触发下载后返回提示,后台异步生成Excel,客服刷新页面检查下载链接。
最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



