小编Far*_*res的帖子

使用大字典执行logstash时出现堆空间错误(翻译过滤器)

我收到一个错误

java.lang.OutOfMemoryError: Java heap space while executing logstash with a 
large dictionary of 353 mega bytes in translate filter. 
Run Code Online (Sandbox Code Playgroud)

我用它来查找我的输入数据。

我尝试让 JVM 使用更多内存(使用 java -Xmx2048m)。假设我做错了,因为它没有效果。

我用“较小”的字典测试了我的配置文件,它工作得很好。有什么帮助吗?如何给logstash足够的RAM以免死机?

我的配置文件如下所示:

input {  
file {
  type => "MERGED DATA"
  path => "C:\logstash-1.4.1\bin\..."
  start_position => "beginning"
    sincedb_path => "/dev/null"}} 

 filter {
grok {
    match => [ "message", "..." ]} 

if (...") {
translate {dictionary_path => "C:\logstash-1.4.1\bin\DICTIONARY.yaml"  field => "Contact_ID"  destination => "DATA" fallback => "no match" refresh_interval => 60  }

grok {match => [ "DATA", …
Run Code Online (Sandbox Code Playgroud)

java out-of-memory elasticsearch heap-size logstash

1
推荐指数
2
解决办法
9483
查看次数

标签 统计

elasticsearch ×1

heap-size ×1

java ×1

logstash ×1

out-of-memory ×1