我需要在GAE(我使用Python)中處理大文件,最大2GB。 當然我會在後端運行代碼,但由於本地存儲不可用,數據將需要在內存中。在應用引擎中處理大型雲存儲文件
是否有像boto或其他雲存儲支持協議的包裝文件描述符? 或其他推薦技術?
感謝, 吉文
我需要在GAE(我使用Python)中處理大文件,最大2GB。 當然我會在後端運行代碼,但由於本地存儲不可用,數據將需要在內存中。在應用引擎中處理大型雲存儲文件
是否有像boto或其他雲存儲支持協議的包裝文件描述符? 或其他推薦技術?
感謝, 吉文
你也許有趣的"Google Cloud Storage Python API Overview"。它像普通的本地文件一樣工作。我在我的項目中使用過它,並沒有遇到任何問題。
數據文件doesnt「需要在內存中」,如果你嘗試,你會運行OOM。 如果您可以按順序打開它作爲文件流。我用blobstore做過,應該類似
您可以使用boto訪問S3。請查看此處的鏈接: http://stackoverflow.com/questions/3948391/is-is-possible-to-read-a-file-from-s3-in-google-app-engine-using-boto – 2013-04-21 07:31:40