asi*_*swt 0 amazon-web-services elasticsearch
我使用 AWS Elasticsearch 服务 7.1 版及其内置的 Kibana 来管理应用程序日志。Logstash 每天都会创建新索引。我的 Logstash 不时收到有关最大分片限制范围的错误,我必须删除旧索引才能使其再次工作。
我从该文档 ( https://docs.aws.amazon.com/elasticsearch-service/latest/developerguide/aes-handling-errors.html ) 中发现,我可以选择增加_cluster/settings/cluster.max_shards_per_node.
所以我通过在 Kibana Dev Tools 中放置以下命令来尝试
PUT /_cluster/settings
{
"defaults" : {
"cluster.max_shards_per_node": "2000"
}
}
Run Code Online (Sandbox Code Playgroud)
但我收到了这个错误
{
"Message": "Your request: '/_cluster/settings' payload is not allowed."
}
Run Code Online (Sandbox Code Playgroud)
有人建议当我尝试更新一些 AWS 不允许的设置时会发生此错误,但此文档 ( https://docs.aws.amazon.com/elasticsearch-service/latest/developerguide/aes-supported-es- Operations.html#es_version_7_1 ) 告诉我这cluster.max_shards_per_node是允许列表中的一个。
请建议如何更新此设置。
你快到了,你需要重命名defaults为persistent
PUT /_cluster/settings
{
"persistent" : {
"cluster.max_shards_per_node": "2000"
}
}
Run Code Online (Sandbox Code Playgroud)
但请注意,每个节点允许的分片越多,每个节点需要的资源就越多,性能也会越差。
| 归档时间: |
|
| 查看次数: |
2356 次 |
| 最近记录: |