php使用fputcsv实现大数据的导出操作详解
本文实例讲述了php使用fputcsv实现大数据的导出操作。分享给大家供大家参考,具体如下:
为了实验大数据的导出,我们这里先自已创建一张大表,表结构如下:
CREATETABLE`tb_users`( `id`int(11)unsignedNOTNULLAUTO_INCREMENTCOMMENT'用户ID', `name`varchar(32)DEFAULT''COMMENT'用户名', `age`tinyint(3)DEFAULT'0'COMMENT'用户年龄', `desc`varchar(255)DEFAULT''COMMENT'用户描述', `phone`varchar(11)DEFAULT''COMMENT'用户手机', `qq`varchar(16)DEFAULT''COMMENT'用户QQ', `email`varchar(64)DEFAULT''COMMENT'用户邮箱', `addr`varchar(255)DEFAULT''COMMENT'用户地址', PRIMARYKEY(`id`) )ENGINE=InnoDBDEFAULTCHARSET=utf8;
然后写个php脚本往这个表插入数据,代码如下:
connect_error){ die('connecterror'); } //数据插入语句 $insSql=''; //一百万数据,分200步,每步插入5000条 $step=200; $nums=5000; for($s=0;$s<$step;++$s){ $insSql='INSERTINTOtb_usersVALUES'; for($n=0;$n<$nums;++$n){ $name=NewString::randString(3,4); $age=mt_rand(1,120); $desc=NewString::randString(64,4); $phone=NewString::randString(11,1); $qq=NewString::randString(13,1); $email=$qq.'@qq.com'; $addr=NewString::randString(128,4); $insSql.="(NULL,'{$name}',$age,'{$desc}','{$phone}','{$qq}','{$email}','{$addr}'),"; } $insSql=rtrim($insSql,','); $db->query($insSql); } $end=microtime(true); echo'用时:',$end-$begin; $db->close();
里面用到的TP3.2的String类大家自行上TP官网下载。整个用时2个多小时,最后数据大小662M。
现在我们用php提供的fputcsv来导出这一百万的数据,原理就是打开一个标准输出流,然后把数据按一万条来分割,每一万条就刷新缓冲区。
connect_error){ die('connecterror'); } //我们试着用fputcsv从数据库中导出1百万的数据 //我们每次取1万条数据,分100步来执行 //如果线上环境无法支持一次性读取1万条数据,可把$nums调小,$step相应增大。 $step=100; $nums=10000; //设置标题 $title=array('ID','用户名','用户年龄','用户描述','用户手机','用户QQ','用户邮箱','用户地址'); foreach($titleas$key=>$item){ $title[$key]=iconv('UTF-8','GBK',$item); } //将标题写到标准输出中 fputcsv($fp,$title); for($s=1;$s<=$step;++$s){ $start=($s-1)*$nums; $result=$db->query("SELECT*FROMtb_usersORDERBYidLIMIT{$start},{$nums}"); if($result){ while($row=$result->fetch_assoc()){ foreach($rowas$key=>$item){ //这里必须转码,不然会乱码 $row[$key]=iconv('UTF-8','GBK',$item); } fputcsv($fp,$row); } $result->free(); //每1万条数据就刷新缓冲区 ob_flush(); flush(); } } $end=microtime(true); echo'用时:',$end-$begin;
整个过程用时5分钟,最终生成的csv文件大小420M。
对于如何用phpexcel导出大数据,并没有什么比较好的方案,phpexcel提供的一些缓存方法,数据压缩,虽然内存使用小了,但所用时间则加长了,时间换空间,显然并不是最好的方案。比较靠谱的方法还是生成多个下载链接地址,把你要下载的数据,以get形式传递当前页数,后台进行数据分页然后导出。
下载汇总结果1 下载汇总结果2 下载汇总结果3
比如你有一个查询数据表单,ID为searchFrm,然后你想把导出数据按1万条分割(phpexcel一次导出1万条是没有问题的,效率还行)
姓名
更多关于PHP相关内容感兴趣的读者可查看本站专题:《php+mysql数据库操作入门教程》、《php+redis数据库程序设计技巧总结》、《php面向对象程序设计入门教程》及《php常见数据库操作技巧汇总》
希望本文所述对大家PHP程序设计有所帮助。
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。