我在組裝Spark時遇到了問題,在我的機器上使用sbt。 在未分配額外內存的情況下嘗試程序集或者在垃圾收集器上運行或超時;在我嘗試過的不同時間,確切的問題有所不同。但是,任何通過Xmx或Xms修改分配內存的嘗試,以及是否給出更多或限制,都會因爲sbt不會將-Xmx或-Xms識別爲命令而失敗。sbt不會組裝Spark Spark
這裏是那種命令我一直在試圖的樣品(從火花源目錄):
sbt -Xmx2g assembly
這裏是我已經接收到錯誤:
java.util.concurrent.ExecutionException:java.lang.OutOfMemoryError: GC overhead limit exceeded
Use 'last' for the full log.
Not a valid command: Xmx2g
Not a valid project: Xmx2g
Expected ':' (if selecting a configuration)
Not a valid key: Xmx2g
Xmx2g
^
我我正在運行64位Java版本1.8.0_20。