我試圖在EMR集羣中運行一個spark任務。如何指定火花提交到Amazon EMR時自定義log4j.configuration的位置?
我我的火花提交我已經加入CONFIGS從log4j.properties
--files log4j.properties --conf "spark.executor.extraJavaOptions=-Dlog4j.configuration=file:/log4j.properties"
而且我在log4j的配置添加
log4j.rootLogger=INFO, file
log4j.appender.file=org.apache.log4j.RollingFileAppender
log4j.appender.file.File=/log/test.log
log4j.appender.file.MaxFileSize=10MB
log4j.appender.file.MaxBackupIndex=10
log4j.appender.file.layout=org.apache.log4j.PatternLayout
log4j.appender.file.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %5p %c{7} - %m%n
閱讀。
無論如何,我看到控制檯中的日誌,但我沒有看到生成的日誌文件。我在這裏做錯了什麼?
spark-submit --class com.myapp.cloud.app.UPApp - 主紗 - 部署模式客戶端 - 驅動程序內存4g - 執行程序 - 內存2g --executor-cores 8 - 文件log4j .properties --conf「spark.executor.extraJavaOptions = -Dlog4j.configuration = file://./log4j.properties」--conf「spark.eventLog.dir =/mnt/var/log /」uber-up-0.0 .jar我試圖運行這個仍然我沒有看到在/log/test.log位置創建的任何日誌文件 –