小编Abh*_*eet的帖子

具有多个Kafka输入的Logstash

我正在尝试从多个主题过滤kafka事件,但是一旦一个主题的所有事件都被过滤,logstash就无法从另一个kafka主题获取事件。我正在使用具有3个分区和2个复制的主题,这是我的logstash配置文件

input {
    kafka{              
        auto_offset_reset => "smallest"
        consumer_id => "logstashConsumer1"          
        topic_id => "unprocessed_log1"
        zk_connect=>"192.42.79.67:2181,192.41.85.48:2181,192.10.13.14:2181"
        type => "kafka_type_1"
}
kafka{              
    auto_offset_reset => "smallest"
    consumer_id => "logstashConsumer1"          
    topic_id => "unprocessed_log2"
    zk_connect => "192.42.79.67:2181,192.41.85.48:2181,192.10.13.14:2181"
    type => "kafka_type_2"
}
}
filter{
    if [type] == "kafka_type_1"{
    csv { 
        separator=>" "
        source => "data"        
    }   
}
if [type] == "kafka_type_2"{    
    csv { 
        separator => " "        
        source => "data"
    }
}
}
output{
    stdout{ codec=>rubydebug{metadata => true }}
}
Run Code Online (Sandbox Code Playgroud)

input apache-kafka logstash

5
推荐指数
1
解决办法
4307
查看次数

标签 统计

apache-kafka ×1

input ×1

logstash ×1