1
找到SASL服務器實現,現在我嘗試設置Hadoop/YARN,以便我可以在其上執行Spark程序。Spark/Hadoop - 現在無法爲DIGEST-MD5
但我堅持一個錯誤,我發現什麼都沒有。
當我嘗試火花提交或火花外殼採用--master紗線我得到下面的異常命令:
Application application_1481891851677_0002 failed 2 times due to Error launching appattempt_1481891851677_0002_000002.
Got exception: org.apache.hadoop.security.AccessControlException: Unable to find SASL server implementation for DIGEST-MD5
我使用的火花和Hadoop的初學者教程的配置:
核心的site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
個
HDFS-site.xml中
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
紗的site.xml
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
我並未啓用SASL任何地方。有人知道我會如何解決或至少規避錯誤?