您如何控制Kafka生产者或使用者的控制台日志记录级别?我正在Scala中使用Kafka 0.9 API。
每次send
在KafkaProducer
被调用时,控制台,输出象下面这样。这是否表明我没有KafkaProducer
正确设置,而不仅仅是一个日志过多的问题?
17:52:21.236 [pool-10-thread-7] INFO o.a.k.c.producer.ProducerConfig - ProducerConfig values:
compression.type = none
metric.reporters = []
metadata.max.age.ms = 300000
.
.
.
17:52:21.279 [pool-10-thread-7] DEBUG o.a.kafka.common.metrics.Metrics - Added sensor with name bufferpool-wait-time
17:52:21.280 [pool-10-thread-7] DEBUG o.a.kafka.common.metrics.Metrics - Added sensor with name buffer-exhausted-records
17:52:21.369 [pool-10-thread-7] DEBUG org.apache.kafka.clients.Metadata - Updated cluster metadata version 1 to Cluster(nodes = [Node(-1, localhost, 9092)], partitions = [])
17:52:21.369 [pool-10-thread-7] DEBUG o.a.kafka.common.metrics.Metrics - Added sensor with name connections-closed:client-id-producer-2
17:52:21.369 [pool-10-thread-7] DEBUG o.a.kafka.common.metrics.Metrics - Added sensor with name connections-created:client-id-producer-2
17:52:21.370 [pool-10-thread-7] DEBUG o.a.kafka.common.metrics.Metrics - Added sensor with name bytes-sent-received:client-id-producer-2
17:52:21.370 [pool-10-thread-7] DEBUG o.a.kafka.common.metrics.Metrics - Added sensor with name bytes-sent:client-id-producer-2
.
.
properties
Kafka服务器和Zookeeper所查看的文件中都有日志记录配置,但是我假设这些配置不会影响Kafka客户端。更改这些文件中的某些日志记录配置,然后重新启动Kafka服务器和Zookeeper,以便重新加载这些文件,并不能解决问题。
谢谢
正确配置logback解决了我的问题:http ://www.mkyong.com/logging/logback-xml-example/
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句