任何人都可以告訴我是否可以在Windows 7環境下使用R studio從SparkR導入spark-csv包? 我的本地機器有R 3.2.2,spark-1.6.1-bin-hadoop2.6和java已經安裝,但沒有安裝maven,scala等。 我不知道我爲了調用spark-csv而錯過任何東西嗎?我應該安裝這個軟件包(.jar文件)並放入某個文件夾中嗎?在Windows環境下從Rstudio加載spark-csv
這裏是我的腳本:
library(rJava)
Sys.setenv(SPARK_HOME = 'C:/Users/***/spark-1.6.1-bin-hadoop2.6')
.libPaths(c(file.path(Sys.getenv('SPARK_HOME'), 'R', 'lib'), .libPaths()))
library(SparkR)
Sys.setenv('SPARKR_SUBMIT_ARGS'='"--packages" "com.databricks:spark-csv_2.11:1.4.0" "sparkr-shell"')
sc <- sparkR.init(master = "local[*]", sparkEnvir = list(spark.driver.memory="2g"))
sqlContext <- sparkRSQL.init(sc)
我能夠調用sparkR庫,並啓動SC,這裏是信息:
Launching java with spark-submit command C:/Users/***/spark-1.6.1-bin-hadoop2.6/bin/spark-submit.cmd --driver-memory "2g" "--packages" "com.databricks:spark-csv_2.11:1.4.0" "sparkr-shell" C:\Users\hwu\AppData\Local\Temp\2\Rtmp46MVve\backend_port13b423eed9c
然後,當我嘗試加載本地CSV文件,它失敗了。我把csv文件放在R的當前工作目錄下。
航班< - read.df(sqlContext, 「nycflights13.csv」, 「com.databricks.spark.csv」,標題= 「真」)
我得到這個錯誤信息:
Error in invokeJava(isStatic = TRUE, className, methodName, ...) :
org.apache.spark.SparkException: Job aborted due to stage failure: Task 0 in stage 0.0 failed 1 times, most recent failure: Lost task 0.0 in stage 0.0 (TID 0, localhost): java.lang.NullPointerException
at java.lang.ProcessBuilder.start(Unknown Source)
at org.apache.hadoop.util.Shell.runCommand(Shell.java:482)
at org.apache.hadoop.util.Shell.r...(Shell.java:455)
at org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:715)
at org.apache.hadoop.fs.FileUtil.chmod(FileUtil.java:873)
at org.apache.hadoop.fs.FileUtil.chmod(FileUtil.java:853)
at org.apache.spark.util.Utils$.fetchFile(Utils.scala:406)
at org.apache.spark.executor.Executor$$anonfun$org$apache$spark$executor$Executor$$updateDependencies$5.apply(Executor.scala:405)
at org.apache.spark.executor.Executor$$anonfun$org$apache$spark$executor$Executor$$updateDependencies$5.apply(Executor.scala:397)
at scala.collection.TraversableLike$WithFilter$$anonfun$foreach$1.apply(TraversableLike.scala:7
感謝您的任何建議。
嗨xyzzy,謝謝你的迴應。我試過你的方法,兩種方式。但它不起作用。像以前一樣的錯誤按摩。我應該下載spark-csv包並以某種方式安裝它?是關於環境的道路嗎?我已經在我的Path變量上設置了java,spark,r。 –