我想讓Spark在本地運行。當我啓動它時,出現以下錯誤,提示我的java安裝(或其路徑)有些奇怪。這是在Mac OS Yosemite上。 line 190: /usr/java/jdk1.7.0_51/bin/java/bin/java/bin/java: No such file or directory
任何建議如何解決這個問題?讓我知道如果你需要更多的信息(我不知道從哪裏開始) 編輯:
我試圖在pyspark上運行Spark MLlib軟件包,並附帶一個測試機器學習數據集。我將數據集分成半訓練數據集和半測試數據集。以下是我建立模型的代碼。但是,它顯示了所有因變量中NaN,NaN的重量。無法弄清楚爲什麼。但是,當我嘗試使用StandardScaler函數來標準化數據時,它很有用。 model = LinearRegressionWithSGD.train(train_data, s