2015-10-20 33 views
1

我試圖在Ubuntu14.04虛擬機上安裝Spark1.5.1。解壓文件後,我將目錄更改爲解壓縮的文件夾並執行命令「./bin/pyspark」,該命令應該激活pyspark外殼。但是,我得到了一個錯誤信息如下:Spark - UbuntuVM - Java運行時環境內存不足

[ OpenJDK的64位服務器VM警告:信息:OS :: commit_memory(0x00000000c5550000,715849728,0)失敗; error ='無法分配內存'(errno = 12)沒有足夠的 內存讓Java運行時環境繼續運行。

本機內存分配(malloc)未能分配715849728字節 來提交保留內存。

更多信息的錯誤報告文件保存爲: /home/datascience/spark-1.5.1-bin-hadoop2.6/hs_err_pid2750.log ]

任何人都可以請給我一些方向來解決問題?

回答

0

它說的很多。它需要7GB的RAM。所以給VM〜8GB的RAM。

+0

我試圖改變虛擬機的設置基本內存,但不能這樣做。你能告訴我如何改變? –

+2

@Reactormonk我認爲你的一個數量級的:) – zero323

+1

@Preetham停止虛擬機,改變內存分配,再次啓動?如果你不能分配更多,你總是可以使用交換。 – zero323