分享nginx+php-fpm实现大文件下载排坑的过程
先上一段代码,支持大文件下载和断点续传,代码来源互联网。
set_time_limit(0);
//省略取文件路径的过程,这里直接是文件完整路径
$filePath=get_save_path().$File['save_name'];
$filePath=realpath($filePath);
$outFileExtension=strtolower(substr(strrchr($filePath,"."),1));//获取文件扩展名
//根据扩展名指出输出浏览器格式
switch($outFileExtension){
case"exe":
$ctype="application/octet-stream";
break;
case"zip":
$ctype="application/zip";
break;
case"mp3":
$ctype="audio/mpeg";
break;
case"mpg":
$ctype="video/mpeg";
break;
case"avi":
$ctype="video/x-msvideo";
break;
default:
$ctype="application/force-download";
}
header("Cache-Control:");
header("Cache-Control:public");
//设置输出浏览器格式
header("Content-Type:$ctype");
header("Content-Disposition:attachment;filename=".basename($filePath));
header("Accept-Ranges:bytes");
$size=filesize($filePath);
//如果有$_SERVER['HTTP_RANGE']参数
if(isset($_SERVER['HTTP_RANGE'])){
/*Range头域Range头域可以请求实体的一个或者多个子范围。
例如,
表示头500个字节:bytes=0-499
表示第二个500字节:bytes=500-999
表示最后500个字节:bytes=-500
表示500字节以后的范围:bytes=500-
第一个和最后一个字节:bytes=0-0,-1
同时指定几个范围:bytes=500-600,601-999
但是服务器可以忽略此请求头,如果无条件GET包含Range请求头,响应会以状态码206(PartialContent)返回而不是以200(OK)。
*/
//断点后再次连接$_SERVER['HTTP_RANGE']的值bytes=4390912-
list($a,$range)=explode("=",$_SERVER['HTTP_RANGE']);
//ifyes,downloadmissingpart
str_replace($range,"-",$range);//这句干什么的呢。。。。
$size2=$size-1;//文件总字节数
$new_length=$size2-$range;//获取下次下载的长度
header("HTTP/1.1206PartialContent");
header("Content-Length:$new_length");//输入总长
header("Content-Range:bytes$range$size2/$size");//Content-Range:bytes4908618-4988927/498892895%的时候
}else{
//第一次连接
$size2=$size-1;
header("Content-Range:bytes0-$size2/$size");//Content-Range:bytes0-4988927/4988928
header("Content-Length:".$size);//输出总长
}
//打开文件
$fp=fopen("$filePath","rb");
//设置指针位置
if(!empty($range)){
fseek($fp,$range);
}
//虚幻输出
while(!feof($fp)){
print(fread($fp,1024*8));//输出文件
flush();//输出缓冲
ob_flush();
}
fclose($fp);
exit();
代码有详细的解释,也很清楚,但是在实际使用时还是小文件可以下载,大文件只能下载前半部分或者出现文件已损坏的情况。查看nginx日志发现如下报错
2018/08/0107:43:20[crit]13906#0:*1479open()"/usr/local/nginx/fastcgi_temp/0/02/0000000020"failed(13:Permissiondenied)whilereadingupstream,
原来在下载大文件时,文件大小超过配置的proxy_temp_file_write_size值时,nginx会将文件写入到临时目录下,如果该目录没有权限,就写不了,那下载只能下载缓从区的内容了。
核实/usr/local/nginx/fastcgi_temp/目录的权限分组,并不在nginx运行账号组下,即然知道了问题原因,那就好办了。给予写权限,或者将目录改为nginx运行账号组下就OK了
cd/usr/local/nginx/ chmod-R766fastcgi_temp/ 或者 chown-Rnginx:nginxfastcgi_temp/#nginx根据各自情况可能是不能的账户
总结
以上所述是小编给大家介绍的nginx+php-fpm实现大文件下载排坑的过程,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对毛票票网站的支持!