php使⽤fputcsv实现⼤数据的导出操作详解
本⽂实例讲述了php使⽤fputcsv实现⼤数据的导出操作。分享给⼤家供⼤家参考,具体如下:
为了实验⼤数据的导出,我们这⾥先⾃已创建⼀张⼤表,表结构如下:
CREATE TABLE `tb_users` (
`id` int(11) unsigned NOT NULL AUTO_INCREMENT COMMENT '⽤户ID',
`name` varchar(32) DEFAULT '' COMMENT '⽤户名',
`age` tinyint(3) DEFAULT '0' COMMENT '⽤户年龄',
`desc` varchar(255) DEFAULT '' COMMENT '⽤户描述',
`phone` varchar(11) DEFAULT '' COMMENT '⽤户⼿机',
`qq` varchar(16) DEFAULT '' COMMENT '⽤户QQ',
`email` varchar(64) DEFAULT '' COMMENT '⽤户邮箱',
`addr` varchar(255) DEFAULT '' COMMENT '⽤户地址',
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
然后写个php脚本往这个表插⼊数据,代码如下:
<?php
set_time_limit(0);
ini_set('memory_limit', '128M');
//使⽤TP3.2的String类,php7下会报错,注意把类名换⼀下
require './String.class.php';
use Org\Util\NewString;
$begin = microtime(true);
$db = new mysqli('127.0.0.1', 'root', '', 'test');
if($db->connect_error) {
die('connect error');
}
//数据插⼊语句
$insSql = '';
//⼀百万数据,分200步,每步插⼊5000条
$step = 200;
$nums = 5000;
exists的用法for($s = 0; $s < $step; ++$s) {
$insSql = 'INSERT INTO tb_users VALUES';
for($n = 0; $n < $nums; ++$n) {
$name = NewString::randString(3, 4);
$age = mt_rand(1, 120);
$desc = NewString::randString(64, 4);
$phone = NewString::randString(11, 1);
$qq = NewString::randString(13, 1);
$email = $qq . '@qq';
$addr = NewString::randString(128, 4);
$insSql .= "(NULL, '{$name}', $age, '{$desc}', '{$phone}', '{$qq}', '{$email}', '{$addr}'),";
}
$insSql = rtrim($insSql, ',');
$db->query($insSql);
}
$end = microtime(true);
echo '⽤时:', $end - $begin;
$db->close();
⾥⾯⽤到的TP3.2的String类⼤家⾃⾏上TP官⽹下载。整个⽤时2个多⼩时,最后数据⼤⼩662M。
现在我们⽤php提供的fputcsv来导出这⼀百万的数据,原理就是打开⼀个标准输出流,然后把数据按⼀万条来分割,每⼀万条就刷新缓冲区。
<?php
set_time_limit(0);
ini_set('memory_limit', '128M');
$fileName = date('YmdHis', time());
header('Content-Type: application/vnd.ms-execl');
header('Content-Disposition: attachment;filename="' . $fileName . '.csv"');
$begin = microtime(true);
//打开php标准输出流
//以写⼊追加的⽅式打开
$fp = fopen('php://output', 'a');
$db = new mysqli('127.0.0.1', 'root', '', 'test');
if($db->connect_error) {
die('connect error');
}
//我们试着⽤fputcsv从数据库中导出1百万的数据
/
/我们每次取1万条数据,分100步来执⾏
//如果线上环境⽆法⽀持⼀次性读取1万条数据,可把$nums调⼩,$step相应增⼤。
$step = 100;
$nums = 10000;
//设置标题
$title = array('ID', '⽤户名', '⽤户年龄', '⽤户描述', '⽤户⼿机', '⽤户QQ', '⽤户邮箱', '⽤户地址');
foreach($title as $key => $item) {
$title[$key] = iconv('UTF-8', 'GBK', $item);
}
//将标题写到标准输出中
fputcsv($fp, $title);
for($s = 1; $s <= $step; ++$s) {
$start = ($s - 1) * $nums;
$result = $db->query("SELECT * FROM tb_users ORDER BY id LIMIT {$start},{$nums}");
if($result) {
while($row = $result->fetch_assoc()) {
foreach($row as $key => $item) {
//这⾥必须转码,不然会乱码
$row[$key] = iconv('UTF-8', 'GBK', $item);
}
fputcsv($fp, $row);
}
$result->free();
//每1万条数据就刷新缓冲区
ob_flush();
flush();
}
}
$end = microtime(true);
echo '⽤时:', $end - $begin;
整个过程⽤时5分钟,最终⽣成的csv⽂件⼤⼩420M。
对于如何⽤phpexcel导出⼤数据,并没有什么⽐较好的⽅案,phpexcel提供的⼀些缓存⽅法,数据压缩,虽然内存使⽤⼩了,但所⽤时间则加长了,时间换空间,显然并不是最好的⽅案。⽐较靠谱的⽅法还是⽣成多个下载链接地址,把你要下载的数据,以get形式传递当前页数,后台进⾏数据分页然后
导出。
<a href="/downSearchData.php?参数1=值1&参数2=值2&page=1" rel="external nofollow" >下载汇总结果1</a>
<a href="/downSearchData.php?参数1=值1&参数2=值2&page=2" rel="external nofollow" >下载汇总结果2</a>
<a href="/downSearchData.php?参数1=值1&参数2=值2&page=3" rel="external nofollow" >下载汇总结果3</a>
⽐如你有⼀个查询数据表单,ID为searchFrm,然后你想把导出数据按1万条分割(phpexcel⼀次导出1万条是没有问题的,效率还⾏)
<form id="searchFrm">
姓名<input type="text" name="uname">
<input type="button" id="searchDataBtn" value="导出汇总结果">
</form>
<div id="searchDataList"></div>
<script type="script">
$("#searchDataBtn").on("click", function() {
var params = $("#searchFrm").serialize();
//获取查询数据的条数
$.get("/getSearchDataRows?" + params, function(data) {
var downDataList = "";
if(data["rows"]) {
//rows是数据总条数,pageSize是⼀页多少条
var pageNum = il(data["rows"] / data["pageSize"]);
for(var i = 1; i <= pageNum; ++i) {
downDataList += "<a href='/downSearchData.php?'" + params + "&page=" + i + ">下载汇总结果" + i + "</a>  ";        }
$("#searchDataList").html(downDataList);
} else {
$("#searchDataList").text("没有数据");
}
}, "json");
return false;
});
</script>
更多关于PHP相关内容感兴趣的读者可查看本站专题:《》、《》、《》及《》
希望本⽂所述对⼤家PHP程序设计有所帮助。

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。