我試圖使用Sparklyr的函數copy_to
將大的dataframe
(約580萬條記錄)複製到Spark中。Sparklyr - 無法將data.frames複製到Spark使用copy_to
首先,裝載使用fread
(data.table
)中的數據時,以及將所述copy_to
功能,我得到以下輸出錯誤:
Error in as.data.frame.default(x[[i]], optional = TRUE) : cannot coerce class ""integer64"" to a data.frame
然後,我改變integer64
類型的唯一的兩列進character
,然後將as.data.frame
(它是data.table
,因爲我使用fread
)應用於所有數據。
使用copy_to
再次,它需要很長的時間之前和之後的進度條顯示出來,而是返回了以下結果:
Error in invoke_method.spark_shell_connection(sc, TRUE, class, method, : No status is returned. Spark R backend might have failed.
沒有數據被複制到的火花。
有什麼想法?