我有幾臺筆記本電腦需要每天從我們的服務器獲取信息。每檯筆記本都有一個server2go安裝(基本上是Apache,PHP,MySQL作爲可執行文件運行),用於啓動本地網頁。該網頁調用使用下面的代碼我們的服務器上的網址:使用PHP同步大量文本
$handle = fopen($downloadURL , "rb");
$contents = stream_get_contents($handle);
fclose($handle);
的$ downloadURL獲取大量信息從我們的服務器上的MySQL數據庫,並返回結果輸出到設備。我現在將結果作爲自己的SQL語句返回(即 - 如果我查詢數據庫「SELECT name FROM names」,我可能會返回設備文本字符串「INSERT INTO names SET names ='JOHN SMITH'」)。這將從在線數據庫獲取信息,並將其返回到設備中的SQL語句,以便插入筆記本電腦的數據庫中。
我遇到的問題是數據量太大。從服務器檢索信息時,筆記本電腦網頁會保持超時。我已將PHP超時限制設置得非常高,但仍遇到問題。任何人都可以想出一個更好的方法來做到這一點?如果我以較小的塊將數據刷新到設備,stream_get_contents會保持連接到服務器嗎?
感謝您的任何意見。
我也投票贊成gzip壓縮...也許是一個小小的SOAP web服務(所以你可以訪問會話並限制傳輸,這樣你就可以發出多個請求並以塊的形式獲得響應) – Catalin 2011-05-23 09:08:21