R中大csv文件,錯誤我想導入faily大文件(40Mrows X 4columns)。我結束了使用ffbase,嘗試後sqldf導入在read.csv.ffdf
我試過base::read.csv
:它失敗了。我試過sqldf::sqldf
:它失敗了,說它無法再分配。
我只是試圖複製在ffbase小插曲給出的例子。
R) x <- data.frame(log=rep(c(FALSE, TRUE), length.out=26), int=1:26, dbl=1:26 + 0.1, fac=factor(letters), ord=ordered(LETTERS), dct=Sys.time()+1:26, dat=seq(as.Date("1910/1/1"), length.out=26, by=1))
R) x <- x[c(13:1, 13:1),]
R) csvfile <- tempPathFile(path=getOption("fftempdir"), extension="csv")
R) write.csv(x, file=csvfile, row.names=FALSE)
R) y <- read.csv(file=csvfile, header=TRUE)
R) y
log int dbl fac ord dct dat
1 FALSE 13 13.1 m M 2012-11-26 11:21:29.15763 1910-01-13
2 TRUE 12 12.1 l L 2012-11-26 11:21:28.15763 1910-01-12
3 FALSE 11 11.1 k K 2012-11-26 11:21:27.15763 1910-01-11
4 TRUE 10 10.1 j J 2012-11-26 11:21:26.15763 1910-01-10
...
23 TRUE 4 4.1 d D 2012-11-26 11:21:20.15763 1910-01-04
24 FALSE 3 3.1 c C 2012-11-26 11:21:19.15763 1910-01-03
25 TRUE 2 2.1 b B 2012-11-26 11:21:18.15763 1910-01-02
26 FALSE 1 1.1 a A 2012-11-26 11:21:17.15763 1910-01-01
# ---- !!!!! HERE !!!! ---- #
R) ffx <- read.csv.ffdf(file=csvfile, header=TRUE)
Erreur dans ff(initdata = initdata, length = length, levels = levels, ordered = ordered, : vmode 'character' not implemented
我不明白...
你有什麼見解?
人們可以用sqldf讀取更大的文件。謹慎地展示你做了什麼?你有沒有試過導入你的數據的一個子集(比如幾百行)? –
sqldf包中的'read.csv.sql()'默認爲內存不足的數據庫。 'sqldf()'默認爲一個內存數據庫,但是你可以通過指定'dbname = tempfile()'來指定一個內存不足的數據庫。 –