2012-02-24 44 views
8

我有nginx 1.0.5 + php-cgi(PHP 5.3.6)正在運行。 我需要上傳〜1GB文件(必須有1-5個並行上傳文件)。 我試圖通過ajax上傳創建上傳大文件。一切正常,但PHP爲每次上傳都花費大量內存。我已經設置了memory_limit = 200M,但它的工作上傳文件的大小約爲150MB。如果文件較大 - 上傳失敗。我可以設置memory_limit越來越大,但我認爲這是錯誤的方式,因爲PHP可以吃掉所有的內存。 我用這個PHP代碼(它簡化)來處理在服務器端上傳:減少PHP中的內存消耗,同時通過php輸入處理上傳

$input = fopen('php://input', 'rb'); 
$file = fopen('/tmp/' . $_GET['file'] . microtime(), 'wb'); 
while (!feof($input)) { 
    fwrite($file, fread($input, 102400)); 
} 
fclose($input); 
fclose($file); 

/etc/nginx/nginx.conf:

user www-data; 
worker_processes 100; 
pid /var/run/nginx.pid; 

events { 
     worker_connections 768; 
     # multi_accept on; 
} 

http { 

     ## 
     # Basic Settings 
     ## 

     sendfile on; 
     tcp_nopush on; 
     tcp_nodelay on; 
     keepalive_timeout 65; 
     types_hash_max_size 2048; 
     client_max_body_size 2g; 
     # server_tokens off; 
     server_names_hash_max_size 2048; 
     server_names_hash_bucket_size 128; 

     # server_names_hash_bucket_size 64; 
     # server_name_in_redirect off; 

     include /etc/nginx/mime.types; 
     default_type application/octet-stream; 

     ## 
     # Logging Settings 
     ## 

     access_log /var/log/nginx/access.log; 
     error_log /var/log/nginx/error.log; 

     ## 
     # Gzip Settings 
     ## 

     gzip on; 
     gzip_disable "msie6"; 

     include /etc/nginx/conf.d/*.conf; 
     include /etc/nginx/sites-enabled/*; 
} 

的/ etc/nginx的/啓用的站點 -/SRV .conf:

server { 
    listen 80; 
    server_name srv.project.loc; 

    # Define root 
    set $fs_webroot "/home/andser/public_html/project/srv"; 
    root $fs_webroot; 
    index index.php; 

    # robots.txt 
    location = /robots.txt { 
     alias $fs_webroot/deny.robots.txt; 
    } 

    # Domain root 
    location/{ 
     if ($request_method = OPTIONS) { 
      add_header Access-Control-Allow-Origin "http://project.loc"; 
      add_header Access-Control-Allow-Methods "GET, OPTIONS, POST"; 
      add_header Access-Control-Allow-Headers "Authorization,X-Requested-With,X-File-Name,Content-Type"; 
      #add_header Access-Control-Allow-Headers "*"; 
      add_header Access-Control-Allow-Credentials "true"; 
      add_header Access-Control-Max-Age "10000"; 
      add_header Content-Length 0; 
      add_header Content-Type text/plain; 
      return 200; 
     } 
     try_files $uri $uri/ /index.php?$query_string; 
    } 

    #error_page 404 /404.htm 

    location ~ index.php { 
     fastcgi_pass 127.0.0.1:9000; 
     fastcgi_index index.php; 
     fastcgi_param SCRIPT_FILENAME $fs_webroot/$fastcgi_script_name; 
     include fastcgi_params; 
     fastcgi_param REQUEST_METHOD $request_method; 
     fastcgi_param PATH_INFO $fastcgi_script_name; 

     add_header Pragma no-cache; 
     add_header Cache-Control no-cache,must-revalidate; 
     add_header Access-Control-Allow-Origin *; 
     #add_header Access-Control-Allow-Headers "Content-Type, X-Requested-With, X-File-Name"; 
    } 
} 

任何人都知道如何減少PHP的內存消耗? 謝謝。

+0

我不明白你的腳本真的在做什麼..你有沒有嘗試過使用'copy'?爲什麼你需要使用PHP來做這件事,而不是僅僅使用文件? – 2012-02-24 11:42:34

+0

>我不明白你的腳本真的在做什麼 保存上傳的文件。 >你有沒有嘗試過使用複製? 它如何幫助? >爲什麼你需要使用PHP來做這件事,而不是僅僅使用文件? 因爲我需要網絡上傳。我不需要FTP。 – andser 2012-02-24 11:53:52

+1

也許你可以完全跳過PHP並使用Nginx上傳模塊? (http://www.grid.net.ru/nginx/upload.en.html) – mobius 2012-02-24 12:11:48

回答

1

之前就在同一只鞋子裏,這就是我在上傳過程中將文件分成不同的塊。

我很好的例子是使用[1]:http://www.plupload.com/index.php「pulpload」或使用Java小程序http://jupload.sourceforge.net其中也有恢復能力,當有網絡問題等試圖

最重要的事情是,你希望你的文件通過網絡瀏覽器上載有從注意到在塊

0

爲什麼不嘗試使用閃存上傳大文件。例如,您可以嘗試swfupload,它對PHP有很好的支持。