我建立有在我心中一個網站,數百(!祝:千美元)的「得到」查詢-per day-將被緩存爲幾個月在文件系統中。Django的緩存:緩存數以千計的查詢時間長,對基本的服務器資源
閱讀the cache documentation,但是,我觀察到的默認值朝着小型,快速緩存週期傾斜。
的old post描述了像我想象,一個戰略,他們的服務器失事破壞。
當然,the current django code似乎自2012年起已經演變然而緩存默認值仍然保持不變...
我不知道我是否在正確的軌道或不上。
我與熟悉的緩存中享受節省數千在相關目錄中的文件的不理解任何東西,但它的基本設置後W3 Total Cache結果受到限制。
有經驗的開發方法這一任務的「階段1」將如何:
沒有資金-yet-支持基於Redis的解決方案(例如)(Not a valid argument)
你將如何緩存通常增加的查詢數量 - 可以長時間形成批量 - 在相當基本的服務器資源上運行?
我看到了大局。我會留下來享受'第0階段',嘗試獲得一些基準,然後在您的方法背景下考慮一個健全且基於良好的'階段1' - 根據需要。謝謝! – raratiru