這裏我的問題很簡單:我有一個php腳本,它從不同的api中檢索大量的csv文件,將它們存儲在數據庫(MySQL)中並將它們顯示給我的用戶。我必須每3分鐘查詢一次這些API以獲取重要數據。 只使用最後的數據,不需要獲取歷史數據。每3分鐘運行一次cron作業還是隻需要3分鐘就可以完成一個php腳本?
我的問題是要避免查詢這些api並在我的數據庫中插入大量數據(如果沒有人在這裏查看頁面的話)。
這不是一個速率限制的問題,只是想減少無用的請求並插入數據庫。
我的問題是:
- 是更好地利用cron作業每3分鐘檢索數據並存儲它們或
- 運行PHP腳本,如果一個頁面加載3分鐘有自上次更新後傳遞?
在第一種情況下,即使沒有人在這裏看到它們,每個用戶都將擁有最後的值,並且數據將始終被檢索。
在第二種情況下,每3分鐘一個用戶將檢索所有數據(因此他的頁面將比其他頁面稍慢),但如果沒有人訪問該站點,則不會存儲無用的數據。
注意:
檢索和插入數據大約需要10秒。
感謝您的見解!
使用cron作業看起來更穩固的解決方案 – Gntem 2012-08-06 10:39:27
取決於您的流量+檢索數據需要多長時間。你能量化這些嗎? – darma 2012-08-06 10:44:47
需要10秒才能檢索數據並將其插入數據庫中。交通非常不規律,每天大約有1000個獨特的IP:在上午9點到下午4點(美國遊客)很多,有些從早上3點到上午11點(歐洲),其餘時間很少... – Romain 2012-08-06 12:32:56