如何为aws elasticsearch服务增加每个节点的\u cluster/settings/cluster.max \u shards \u

0vvn1miw  于 2021-06-15  发布在  ElasticSearch
关注(0)|答案(1)|浏览(1046)

我使用aws elasticsearch服务7.1版及其内置kibana来管理应用程序日志。logstash每天都会创建新索引。我的logstash有时会出现关于最大碎片限制范围的错误,我必须删除旧的索引才能重新工作。
我从这个文件里找到的(https://docs.aws.amazon.com/elasticsearch-service/latest/developerguide/aes-handling-errors.html)我可以选择增加 _cluster/settings/cluster.max_shards_per_node .
所以我在kibana开发工具中输入了以下命令

PUT /_cluster/settings
{
  "defaults" : {
      "cluster.max_shards_per_node": "2000"
  }
}

但我犯了个错误

{
  "Message": "Your request: '/_cluster/settings' payload is not allowed."
}

有人建议,当我尝试更新aws不允许的某些设置时,会发生此错误,但本文档(https://docs.aws.amazon.com/elasticsearch-service/latest/developerguide/aes-supported-es-operations.html#es_version_7_1)告诉我 cluster.max_shards_per_node 是允许列表中的一个。
请建议如何更新此设置。

slmsl1lt

slmsl1lt1#

你快到了,你需要重新命名 defaultspersistent ```
PUT /_cluster/settings
{
"persistent" : {
"cluster.max_shards_per_node": "2000"
}
}

但是要注意,每个节点允许的碎片越多,每个节点需要的资源就越多,性能就越差。

相关问题