我需要序列化一個需要高性能的數據。分離的線程將每秒訪問它並且必須將數據加載到內存。將會有大約1000 - 10000條有關用戶會話的字典條目(ID,sessid,登錄日期)。有些數據會經常更新,因爲登錄時間有一段時間。Python - 以高性能序列化數據的最佳方式?
這些數據將在python服務器和Django應用程序之間共享。我想用pickle或者更快的版本cPickle。我還發現marshal。
這樣做的最好方法是什麼? cPickle是否足夠高效?或者也許是元帥?
編輯: 訪問時間非常重要。這將是一個實時websocket服務器,所以我需要非常低的延遲。每秒訪問一次cPickle數據還是像Redis連接到數據庫一樣快?
與Redis相比,cPickle將會非常慢 - 這是爲速度而設計的。 – 2013-01-17 07:10:27