几天前我才刚刚开始阅读有关Apache kafka的文章,所以我是该技术的新手。我有一些疑问/疑问,需要澄清。如:
根据配置:log.retention.hours
我们可以在此处设置小时数。数据保留时间可以延长2年吗?
根据此链接,它说:
Kafka群集将所有已发布的消息(无论是否已被使用)保留一段可配置的时间。例如,如果日志保留时间设置为两天,则在消息发布后的两天内,该消息可供使用,之后将被丢弃以释放空间。Kafka的性能相对于数据大小实际上是恒定的,因此保留大量数据不是问题。
正如它已经说过的,Perfomance在数据大小方面实际上是恒定的。那是否意味着我们可以尽可能多地存储数据?是否需要一些其他配置或监视器?
1)当然。log.retention.hours是一个整数。2年就是17520小时。远低于整数的最大值。
2)您可以存储尽可能多的数据,使其适合您所拥有的磁盘。请注意,如果您存储更多数据,虽然Kafka的性能不会降低,但尝试从磁盘上获取大量数据的使用者绝对会影响性能。为了获得最佳性能,请确保使用者在存储在内存中的同时读取相对较新的数据。
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句