php使用fputcsv实现大数据的导出操作详解
本文实例讲述了php使用fputcsv实现大数据的导出操作。分享给大家供大家参考,具体如下:
为了实验大数据的导出,我们这里先自已创建一张大表,表结构如下:
CREATETABLE`tb_users`( `id`int(11)unsignedNOTNULLAUTO_INCREMENTCOMMENT'用户ID', `name`varchar(32)DEFAULT''COMMENT'用户名', `age`tinyint(3)DEFAULT'0'COMMENT'用户年龄', `desc`varchar(255)DEFAULT''COMMENT'用户描述', `phone`varchar(11)DEFAULT''COMMENT'用户手机', `qq`varchar(16)DEFAULT''COMMENT'用户QQ', `email`varchar(64)DEFAULT''COMMENT'用户邮箱', `addr`varchar(255)DEFAULT''COMMENT'用户地址', PRIMARYKEY(`id`) )ENGINE=InnoDBDEFAULTCHARSET=utf8;
然后写个php脚本往这个表插入数据,代码如下:
connect_error){
die('connecterror');
}
//数据插入语句
$insSql='';
//一百万数据,分200步,每步插入5000条
$step=200;
$nums=5000;
for($s=0;$s<$step;++$s){
$insSql='INSERTINTOtb_usersVALUES';
for($n=0;$n<$nums;++$n){
$name=NewString::randString(3,4);
$age=mt_rand(1,120);
$desc=NewString::randString(64,4);
$phone=NewString::randString(11,1);
$qq=NewString::randString(13,1);
$email=$qq.'@qq.com';
$addr=NewString::randString(128,4);
$insSql.="(NULL,'{$name}',$age,'{$desc}','{$phone}','{$qq}','{$email}','{$addr}'),";
}
$insSql=rtrim($insSql,',');
$db->query($insSql);
}
$end=microtime(true);
echo'用时:',$end-$begin;
$db->close();
里面用到的TP3.2的String类大家自行上TP官网下载。整个用时2个多小时,最后数据大小662M。
现在我们用php提供的fputcsv来导出这一百万的数据,原理就是打开一个标准输出流,然后把数据按一万条来分割,每一万条就刷新缓冲区。
connect_error){
die('connecterror');
}
//我们试着用fputcsv从数据库中导出1百万的数据
//我们每次取1万条数据,分100步来执行
//如果线上环境无法支持一次性读取1万条数据,可把$nums调小,$step相应增大。
$step=100;
$nums=10000;
//设置标题
$title=array('ID','用户名','用户年龄','用户描述','用户手机','用户QQ','用户邮箱','用户地址');
foreach($titleas$key=>$item){
$title[$key]=iconv('UTF-8','GBK',$item);
}
//将标题写到标准输出中
fputcsv($fp,$title);
for($s=1;$s<=$step;++$s){
$start=($s-1)*$nums;
$result=$db->query("SELECT*FROMtb_usersORDERBYidLIMIT{$start},{$nums}");
if($result){
while($row=$result->fetch_assoc()){
foreach($rowas$key=>$item){
//这里必须转码,不然会乱码
$row[$key]=iconv('UTF-8','GBK',$item);
}
fputcsv($fp,$row);
}
$result->free();
//每1万条数据就刷新缓冲区
ob_flush();
flush();
}
}
$end=microtime(true);
echo'用时:',$end-$begin;
整个过程用时5分钟,最终生成的csv文件大小420M。
对于如何用phpexcel导出大数据,并没有什么比较好的方案,phpexcel提供的一些缓存方法,数据压缩,虽然内存使用小了,但所用时间则加长了,时间换空间,显然并不是最好的方案。比较靠谱的方法还是生成多个下载链接地址,把你要下载的数据,以get形式传递当前页数,后台进行数据分页然后导出。
下载汇总结果1 下载汇总结果2 下载汇总结果3
比如你有一个查询数据表单,ID为searchFrm,然后你想把导出数据按1万条分割(phpexcel一次导出1万条是没有问题的,效率还行)
姓名
更多关于PHP相关内容感兴趣的读者可查看本站专题:《php+mysql数据库操作入门教程》、《php+redis数据库程序设计技巧总结》、《php面向对象程序设计入门教程》及《php常见数据库操作技巧汇总》
希望本文所述对大家PHP程序设计有所帮助。
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。