log.retention.byte参数的主要作用之一是避免 kafka 磁盘已满,换句话说,清除数据日志以避免 kafka 磁盘已满。
根据以下链接:https : //docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.6.5/bk_kafka-component-guide/content/kafka-broker-settings.html
log.retention.bytes – 是每个主题分区在日志中保留的数据量。默认情况下,日志大小不受限制。
我们还可以看到注意——这是每个分区的限制,因此将这个值乘以分区数来计算为主题保留的总数据。
为了更好地理解它让我们举个小例子(动手总是好得多)
在kafka机器/var/kafka/kafka-logs下,我们有以下主题分区,而主题名称是-lop.avo.prt.prlop
/var/kafka/kafka-logs 下的主题分区示例
lop.avo.prt.prlop-1
lop.avo.prt.prlop-2
lop.avo.prt.prlop-3
lop.avo.prt.prlop-4
lop.avo.prt.prlop-5
lop.avo.prt.prlop-6
lop.avo.prt.prlop-7
lop.avo.prt.prlop-8
lop.avo.prt.prlop-9
lop.avo.prt.prlop-10
Run Code Online (Sandbox Code Playgroud)
在每个分区下,我们有以下日志(示例)
4.0K 00000000000000023657.index
268K 00000000000000023657.log
4.0K 00000000000000023657.timeindex
4.0K 00000000000000023854.index
24K 00000000000000023854.log
4.0K 00000000000000023854.timeindex
Run Code Online (Sandbox Code Playgroud)
在集群中我们有 3 台 kafka 机器(3 个代理) 关于 kafka 存储——每个 kafka 包括大小为 100G 的磁盘
假设我们想在磁盘占总磁盘的 70% 时清除主题中的日志,
所以现在让我们尝试根据上述信息计算log.retention.bytes的值
因为我们有 10 个主题分区,并且我们希望将磁盘的总大小限制为 70G
那么我的假设是进行如下计算
每个分区将限制为 7G 和 7G 转换为字节,所以它是?7516192768 字节
7G X 10 = 70G(总磁盘的 70%)
所以似乎log.retention.bytes应该设置为 7516192768 ,以便将每个分区限制为 7516192768 字节
我的假设是否合乎逻辑?
如果不是,那么-log.retention.bytes的正确计算是什么 ?,基于那个kafka磁盘是100G,我们在/var/kafka/kafka-logs下只有10个主题分区
你走在正确的轨道上。只需记住以下几点:
log.retention.bytes定义 Kafka 将确保有多少数据可用。所以这是一个下限。磁盘上的最大大小可能很难准确计算,因为它取决于许多设置,例如段和索引大小、段滚动时间、清洁间隔(大多数log.*设置)。有关更多详细信息,请参阅Kafka 保留策略。
规划总磁盘使用量的 70% 是一个好主意,但实际上我仍然建议监视磁盘使用情况以避免出现意外。
根据您的计算,如果您想要添加分区,您可能需要进行更改。另请注意,必须对副本进行计数,因此如果您创建 1 个复制因子为 3 的新分区,则 3 个代理将需要有可用空间。
| 归档时间: |
|
| 查看次数: |
9498 次 |
| 最近记录: |