我有一個scala jar文件,它從hive視圖中讀取數據並在hdfs中創建一個csv文件,這個jar在從CLI調用時處於Spark集羣模式,但是從Oozie的觸發工作流時,它拋出以下錯誤spark動作拋出'Classpath包含多個SLF4J綁定'來自oozie的錯誤
SLF4J : Classpath contains multiple SLF4J bindings.
SLF4J : Found binding in [jar:file:/data/hadoop-data/9/yarn/nm/filecache/7505/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J : Found binding in [jar:file:/data/hadoop-data/1/yarn/nm/usercache/cntr/filecache/216569/slf4j-log4j12.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J : Found binding in [jar:file:/opt/cloudera/parcels/CDH-5.8.3-1.cdh5.8.3.p2256.2455/jars/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J : Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
我已經做了一些搜索和發現,在pom.xml中的依賴關係添加排除會做伎倆,所以下面我已經加入到我在pom.xml中排除
<exclusions>
<exclusion>
<groupId>org.slf4j</groupId>
<artifactId>slf4j-log4j12</artifactId>
</exclusion>
<exclusion>
<groupId>log4j</groupId>
<artifactId>log4j</artifactId>
</exclusion>
<exclusion>
<groupId>org.slf4j</groupId>
<artifactId>slf4j-api</artifactId>
</exclusion>
</exclusions>
,但我依然得到同樣的錯誤觸發從Oozie的工作流程
火花罐子當任何建議,歡迎
它的原因是您的類路徑中有多個'slf4j-log4j12-1.7.5.jar',就像您在錯誤中看到的一樣。我想這不是一個錯誤,它只是一個信息,不是嗎? –
嗨@RameshMaharjan,它來自oozie stderr,並因爲這個火花行動是失敗的,因爲罐子在命令行界面運行時成功運行羣集 – major