2012-12-20 27 views
0

我正在運行使用log4j進行日誌記錄的Storm羣集。除了標準的基於文件的日誌記錄之外,我想添加一個kafka appender。log4j kafka appender未使用defined ConversionPattern

我log4j的配置文件看起來是這樣的:

log4j.rootLogger=INFO, A1 

log4j.appender.A1 = org.apache.log4j.DailyRollingFileAppender 
log4j.appender.A1.File = /var/log/storm/logs/${logfile.name} 
log4j.appender.A1.Append = true 
log4j.appender.A1.DatePattern = '.'yyy-MM-dd 
log4j.appender.A1.layout = org.apache.log4j.PatternLayout 
log4j.appender.A1.layout.ConversionPattern = %d{yyyy-MM-dd HH:mm:ss} %c{1} [%p] %m%n 

log4j.appender.KAFKA=kafka.producer.KafkaLog4jAppender 
log4j.appender.KAFKA.Host=<kafka.ip> 
log4j.appender.KAFKA.Port=9092 
log4j.appender.KAFKA.Topic=storm_log 
log4j.appender.KAFKA.SerializerClass=kafka.producer.DefaultStringEncoder 
log4j.appender.KAFKA.layout=org.apache.log4j.PatternLayout 
log4j.appender.KAFKA.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss} %c{1} [%p] %m%n 

log4j.logger.my.package.name=INFO, KAFKA 

一切工作正常,除了卡夫卡附加器不使用的定義ConversionPattern,即使定義是完全一樣的文件附加目的地相同,它按預期工作。我如何改變配置來使卡夫卡appender工作?

回答

1

我和Kafka版本0.7有同樣的問題。

版本0.7.1中對KafkaLog4jAppender進行了一些更改,升級後,ConversionPattern對我的配置類似於上面的配置。