0
我在這個路徑上安裝了Apache Spark在這個路徑/home/mymachine/spark-2.1.0-bin-hadoop2.7
所以我必須去python目錄下,以便能夠使用spark或者我可以在python目錄下使用它從庫調用findspark,但看來我總是初始化這個庫是這樣的:設置findspark.init()永久
import findspark
findspark.init("/home/mymachine/spark-2.1.0-bin-hadoop2.7")
每次我想用findspark
,這是不是很有效。無論如何永久啓動這個庫?
在here它提到需要在.bash_profile上設置變量SPARK_HOME
,我做到了,但沒有運氣。
嗨,我在OSX上有類似的問題。意思是,我將SPARK_HOME添加到了我的.bash_profile文件中,但沒有運氣。我不得不'源'.bash_profile'解決。 –
Hi @ bob-haffner你用'''source .bash_profile'''來解決什麼意思? – HelloWorld
嗨HW,當你添加一個env var(例如SPARK_HOME)到.bash_profile時,你需要關閉並重新打開你的shell或者執行'source .bash_profile',這樣你才能使用它。那有意義嗎? –