小编Rya*_*yan的帖子

如何配置用于在Google Compute Engine上备份elasticsearch数据的结构?

我在GCE(Google Compute Engine)上配置了两个节点的弹性搜索环境,因此有两个VM,我需要为此创建一个备份策略.我首先想到我可以使用elasticsearch快照API将我的所有数据备份到给定的存储,因为API支持几种存储快照的方法.

  • 共享文件系统,例如NAS
  • 亚马逊S3
  • HDFS(Hadoop分布式文件系统)
  • Azure云

我尝试使用共享文件系统选项,但它要求在节点之间共享存储位置.有没有办法在GCE上做到这一点?

curl -XPUT http://x.x.x.x:9200/_snapshot/backup -d '{
    "type": "fs",
    "settings": {
        "compress" : true,
        "location": "/elasticsearch/backup"
    }
Run Code Online (Sandbox Code Playgroud)

}"

nested: RepositoryVerificationException[[backup] store location [/elasticsearch/backup] is not shared between node

我知道有一个用于存储备份的elasticsearchAWS插件.是否有适用于Google云端存储的插件?有可能这样做吗?

如果上述任何替代方案都不可行,是否还有其他建议的备份我的数据的策略?

backup-strategies elasticsearch google-compute-engine google-cloud-platform

8
推荐指数
1
解决办法
1525
查看次数