重新启动后如何将IP保留在单个节点上的dockerized Consul群集中

umm*_*ino 5 docker consul docker-compose

我是Docker和Consul的新手,现在尝试设置由3个dockerized节点组成的本地Consul集群。我正在使用progrium/consulDocker映像并经历了整个教程和所描述的示例。
集群可以正常工作,直到涉及到重新启动/重新启动为止。

这是我的docker-compose.yml

--- node1: command: "-server -bootstrap-expect 3 -ui-dir /ui -advertise 10.67.203.217" image: progrium/consul ports: - "10.67.203.217:8300:8300" - "10.67.203.217:8400:8400" - "10.67.203.217:8500:8500" - "10.67.203.217:8301:8301" - "10.67.203.217:8302:8302" - "10.67.203.217:8301:8301/udp" - "10.67.203.217:8302:8302/udp" - "172.17.42.1:53:53/udp" restart: always node2: command: "-server -join 10.67.203.217" image: progrium/consul restart: always node3: command: "-server -join 10.67.203.217" image: progrium/consul restart: always registrator: command: "consul://10.67.203.217:8500" image: "progrium/registrator:latest" restart: always

我收到如下消息:

[ERR] raft: Failed to make RequestVote RPC to 172.17.0.103:8300: dial tcp 172.17.0.103:8300: no route to host

这显然是由于新IP,重启后我的节点2和3获得了。那么有可能防止这种情况吗?阅读有关链接和环境变量的信息,但似乎这些变量在重启后也不会更新。

Flo*_*vre 4

我遇到了同样的问题,直到我读到重新启动容器化领事节点时存在 ARP 表缓存问题。

据我所知,有两种解决方法:

  1. 使用 --net=host 运行容器
  2. 在重新启动容器之前清除 ARP 表: docker run --net=host --privileged --rm cap10morgan/conntrack -F

业主(杰夫·林赛)告诉我,他们正在重新设计整个容器,并内置此修复程序,不幸的是没有时间表。

来源: https: //github.com/progrium/docker-consul/issues/26