隨着Spark 2.1的全新安裝,執行pyspark命令時出現錯誤。Spark 2.1 - 實例化HiveSessionState時出錯
Traceback (most recent call last):
File "/usr/local/spark/python/pyspark/shell.py", line 43, in <module>
spark = SparkSession.builder\
File "/usr/local/spark/python/pyspark/sql/session.py", line 179, in getOrCreate
session._jsparkSession.sessionState().conf().setConfString(key, value)
File "/usr/local/spark/python/lib/py4j-0.10.4-src.zip/py4j/java_gateway.py", line 1133, in __call__
File "/usr/local/spark/python/pyspark/sql/utils.py", line 79, in deco
raise IllegalArgumentException(s.split(': ', 1)[1], stackTrace)
pyspark.sql.utils.IllegalArgumentException: u"Error while instantiating 'org.apache.spark.sql.hive.HiveSessionState':"
我在同一臺機器上有Hadoop和Hive。 Hive配置爲使用MySQL作爲Metastore。我沒有得到Spark 2.0.2的這個錯誤。
有人可以請指出我在正確的方向嗎?
感謝/ tmp/hive目錄權限上的指針。這似乎已經成功了! – Kring
此錯誤可能是由您提到的所有3種可能性(/ tmp/hive權限,Hadoop conf或舊的Spark 1.6代碼)引起的。感謝提及所有這些。 – Bastien
其他任何不是chmod 777的解決方案?這不是一個好主意給這種類型的燙髮(安全) – AlessioG