1
使用CURL拉取搜索查詢結果,然後遍歷數據庫以加載附加查詢,然後將結果存儲回數據庫。進出口運行與PHP的最大時間的麻煩,並嘗試使用這個最大時間變量設置爲更高的金額,我覺得心不是我的主機上的工作:使用CURL加載文件的PHP Cron腳本效率
ini_set('max_execution_time', 600);
文件中
由cron運行,因此僅改變導入過程的最長時間。
的問題是,這將是更effecient存儲數據庫中的每個CURL連接的結果,然後具有拉動dataabase結果和排序到相關表格的二次函數,並運行二次函數,每10分鐘假設或者是更有效的拉動文件並一次插入排序的記錄?
我沒有在我的測試服務器或啓動服務器上運行fopen或file_get_contents,所以我試圖解決它,因此使用Curl來提取文件。 – 2010-10-17 20:43:08
你怎麼沒有打開?是否因爲PHP/Apache運行的用戶沒有權限? 這個想法仍然適用於兩個數據庫表。有一個用於輸入,另一個用於輸出。雖然兩步解決方案不可能比一步解決方案更有效率,但除非您在大規模進行這項工作,否則這種差異應該可以忽略不計。 – 2010-10-17 21:52:48