5
任何人都可以解釋將爲Spark Dataframe創建的分區數。Spark Dataframe的分區數
我知道,對於RDD,創建它時我們可以提到像下面這樣的分區數。
val RDD1 = sc.textFile("path" , 6)
但是對於創建時的Spark數據框看起來像我們沒有選項來指定像RDD一樣的分區數。
我認爲唯一的可能性是,在創建數據框後,我們可以使用重新分區API。
df.repartition(4)
那麼任何人都可以讓我知道,如果我們可以指定創建數據框的分區數量。
如果提供的解決方案回答您的問題,請接受它來解決問題或評論它爲什麼不解決問題! – eliasah