2017-04-08 57 views
2

當我嘗試使用sparkR時,我正在努力解決這個問題。sparkR:實例化'org.apache.spark.sql.hive.HiveSessionState'時出錯:

sparkR.session(master = "local[*]", sparkConfig = list(spark.driver.memory = "1g")) 
Error in handleErrors(returnStatus, conn) : 
    java.lang.IllegalArgumentException: Error while instantiating 'org.apache.spark.sql.hive.HiveSessionState': 
    at org.apache.spark.sql.SparkSession$.org$apache$spark$sql$SparkSession$$reflect(SparkSession.scala:981) 
    at org.apache.spark.sql.SparkSession.sessionState$lzycompute(SparkSession.scala:110) 
    at org.apache.spark.sql.SparkSession.sessionState(SparkSession.scala:109) 
    at org.apache.spark.sql.api.r.SQLUtils$$anonfun$setSparkContextSessionConf$2.apply(SQLUtils.scala:67) 
    at org.apache.spark.sql.api.r.SQLUtils$$anonfun$setSparkContextSessionConf$2.apply(SQLUtils.scala:66) 
    at scala.collection.TraversableLike$WithFilter$$anonfun$foreach$1.apply(TraversableLike.scala:733) 
    at scala.collection.Iterator$class.foreach(Iterator.scala:893) 
    at scala.collection.AbstractIterator.foreach(Iterator.scala:1336) 
    at scala.collection.IterableLike$class.foreach(IterableLike.scala:72) 
    at scala.collection.AbstractIterable.foreach(Iterable.scala:54) 
    at scala.collection.Traversabl 

希望這是一個明確的解決方案,我是新來的火花,我什麼都不知道關於Java階。非常感謝!

回答

0

請看看: Issues trying out example in Spark-shell

類似的問題,你需要設置spark.sql.warehouse.dir同時初始化sparkSession。

sparkR.session(master = "local[*]", sparkConfig = list(spark.driver.memory = "1g", spark.sql.warehouse.dir = "file:///somelocaldirectory")) 
+0

我已經解決了這個問題,我發生這種情況是因爲我在PC中正確安裝了火花:( – user135633

+0

您是如何解決問題的@ user135633? – elikesprogramming

0

我有同樣的錯誤。看起來它與用戶權限有關。因此,你已經兩個選項:

1)啓動sparkR從目錄,在這裏你有必要的權限(前提:火花bin文件夾必須包含在PATH環境變量:export PATH=$SPARK_HOME/bin:$PATH):

cd ~ 
sparkR 

2)啓動sparkR使用sudo權限:

/opt/spark/bin $ sudo ./sparkR 
0

請嘗試去除環境變量HADOOP_CONF_DIR

相關問題