2016-12-16 50 views
1

找到SASL服務器實現,現在我嘗試設置Hadoop/YARN,以便我可以在其上執行Spark程序。Spark/Hadoop - 現在無法爲DIGEST-MD5

但我堅持一個錯誤,我發現什麼都沒有。

當我嘗試火花提交或火花外殼採用--master紗線我得到下面的異常命令:

Application application_1481891851677_0002 failed 2 times due to Error launching appattempt_1481891851677_0002_000002. 
Got exception: org.apache.hadoop.security.AccessControlException: Unable to find SASL server implementation for DIGEST-MD5 

我使用的火花和Hadoop的初學者教程的配置:

核心的site.xml

<configuration> 
<property> 
    <name>fs.defaultFS</name> 
    <value>hdfs://localhost:9000</value> 
</property> 

HDFS-site.xml中

<configuration> 
<property> 
    <name>dfs.replication</name> 
    <value>1</value> 
</property> 

紗的site.xml

<property> 
    <name>yarn.nodemanager.aux-services</name> 
    <value>mapreduce_shuffle</value> 
</property> 

我並未啓用SASL任何地方。有人知道我會如何解決或至少規避錯誤?

回答

0

我發現它是jdk版本的問題。當我的mapReduce作業使用openjdk-9在Hadoop 2.8上工作時,我得到了這個錯誤。在將其更改爲openjdk-8或openjdk-7後,它運行良好。