博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
解决nginx下载大文件出现文件损坏,文件大小不一致
阅读量:7225 次
发布时间:2019-06-29

本文共 1083 字,大约阅读时间需要 3 分钟。

hot3.png

小伙伴今天反馈了一个问题,说,网页上传了一个2MB的文件,在网页下载时,只有64KB,并且打开失败。确认该BUG确实存在且必现后,我,踏上了调试解决此BUG之路。

1、系统是nginx+php+mysql,凭经验判断与mysql无关,可以无视TA。

2、从PHP网页上传2MB文件后,直接在服务器打开该文件,可以正常查阅,并且与原文件二进制一样。
3、用不同浏览器,不同电脑反复从PHP网页下载该文件,发现下载的文件均只有64KB。
4、换一个体积只有90KB的文件,从PHP网页上传下载,均无异常。
通过以上4点,基本可以判定,问题出在nginx上。这时候,打开nginx的日志文件,发现如下错误log,
[crit] 21636#0: *843968 open() “/home/www/local/nginx/fastcgi_temp/0/11/0000000110” failed (13: Permission denied) while reading upstream,…..
可以大胆猜测,由于没有足够权限操作fastcgi_temp文件夹,所以无法得到正常的文件,于是,为该文件夹赋上权限后,问题解决。

回头看,这到底是什么原因呢?

查看nginx配置文件,可以找到下面这一段:

fastcgi_connect_timeout 300;
fastcgi_send_timeout 300;
fastcgi_read_timeout 300;
**fastcgi_buffer_size 64k;
fastcgi_buffers 4 64k;**
fastcgi_busy_buffers_size 128k;
fastcgi_temp_file_write_size 128k;
每次下载失败时文件的大小总是64KB,应该跟这里有关。原来,nginx会使用fastcgi_buffer_size指定的大小的缓冲区用于缓存fastcgi流的内容。当大小超出此大小时会继续用fastcgi_buffers指定的数量和大小申请缓冲区。如果依然超出此大小,会将多出的内容写入临时文件。也就是说,在本情况下,nginx首先会使用一个64K的缓冲区缓冲fastcgi流的第一部分,超出后最多申请4*64K=256K的缓冲区用于缓冲。如果继续超出,则写入临时文件。所以,在下载大于256K文件的时候,需要用到临时文件夹进行缓冲,而这里没有权限操作,就导致了该问题。

转载于:https://my.oschina.net/luocq0769/blog/778643

你可能感兴趣的文章
8086的地址空间
查看>>
Android开发动画效果被遮掉的解决方法
查看>>
Apache2.2.17源码编译安装以及配置虚拟主机
查看>>
2017年开发语言排名
查看>>
读二进制表的显示 Binary Watch
查看>>
我的友情链接
查看>>
linux基础:10、基础命令(4)
查看>>
linux中强大的screen命令
查看>>
放开那个程序员
查看>>
构建高性能数据库缓存之Redis(一)
查看>>
测试驱动开发
查看>>
解决MySQL不允许从远程访问
查看>>
puppet介绍及基于httpd实例部署
查看>>
UML常用工具之三--RSA
查看>>
iis7 appcmd的基础命令及简单用法
查看>>
用脚本实现移动某目录下文件名符合指定规则的文件到另一个目录的功能
查看>>
关于SQL镜像配置报错
查看>>
终于找到解决方案了,Qt的Model/View Framework解析
查看>>
线程信息的获取和设置
查看>>
Databricks Scala 编程风格指南
查看>>