大家好,又见面了,我是全栈君,今天给大家准备了Idea注册码。
php环境
出现情况:上传30M文件的时候 本地数据一直在提交,观察serverio 也一直有下载流量。
可是就没有个结束。php输出 $_FILES,也不会运行到这行代码。比方我提交30M文件表单提交。可是流量预计超过好几百M也不会停止。反正不人为停止脚步,就是不断在数据交互。请问有大哥碰到这情况吗?是否哪些php配置没配置对
大文件上传问题已解决 以我測试上传32M文件大小为例
php 执行方式 FPM-FCGI
php.ini
upload_max_filesize = 64M//上传文件最大限制
post_max_size = 100M //POST方法提交最大限制 最好大于上面
max_execution_time = 300//脚本超时时间
max_input_time = 300
memory_limit = 200M //假设不够大。会导致内存溢出500错误
nginx.conf
client_max_body_size 100m; //依据文件大小自己调整提交空间
以上解决方式。
自己查百度摸索出来分享下。有哪位大能能对大文件上传有比較系统的配置优化方案例希望指点一二。谢谢!
!
版权声明:本文博客原创文章,博客,未经同意,不得转载。
发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/117417.html原文链接:https://javaforall.cn
【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛
【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...