我正在使用Spark 1.4進行我的研究並正在努力處理內存設置。我的機器有16GB內存,所以沒有問題,因爲我的文件大小隻有300MB。雖然,當我嘗試使用toPandas()
功能我收到以下錯誤星火RDD轉換成數據幀熊貓:Spark 1.4增加maxResultSize內存
serialized results of 9 tasks (1096.9 MB) is bigger than spark.driver.maxResultSize (1024.0 MB)
我試圖解決這個改變火花-config文件,並仍然得到同樣的錯誤。我聽說這是Spark 1.4的一個問題,並且懷疑你是否知道如何解決這個問題。任何幫助深表感謝。
我沒有設置在配置文件中的變量,並重新啓動了火花,但仍然得到同樣的錯誤。 – ahajib
你有沒有試過第一個解決方案? –
它適合我,但應該像你提到的臨時解決方案;)以任何方式感謝你 –