如何將R packages zoo或xts用於非常大的數據集? (100GB) 我知道有一些軟件包,比如bigrf,ff,bigmemory可以處理這個問題,但是你必須使用它們有限的一組命令,它們沒有動物園或者xts的功能,而且我也沒有知道如何讓動物園或xts使用它們。 我該如何使用它?如何使用大數據的動物園或xts?
我已經看到,還有一些其他的東西,與數據庫相關,如sqldf和hadoopstreaming,RHadoop,或其他使用的革命河。你有什麼建議?,任何其他?
我只想集合系列,清理,並執行一些協整和情節。 我不想爲每個需要的命令編寫和實現新的函數,每次都使用小塊數據。
補充:我在Windows
這不是一個量化的財務問題。我將這個發送給Stack Overflow。 – chrisaycock 2013-03-27 03:56:36
@skan你可以看看Jeff Ryan創建的'mmap'包(xts的作者) – 2013-03-27 06:54:26
也可以看看這篇文章http://r.789695.n4.nabble.com/xts-timeseries-as-shared -memory-objects-with-bigmemory-package-tp3385186p3385252.html – 2013-03-27 07:07:37