我在向Vagrant VM添加ssh密钥时遇到了问题.基本上我在这里的设置工作正常.一旦创建了VM,我就可以访问它们vagrant ssh,用户"vagrant"存在,并且该authorized_keys文件中有该用户的ssh密钥.
我现在要做的是:能够通过ssh或使用连接到这些VM scp.所以我只需要将我的公钥添加id_rsa.pub到authorized_keys- 就像我一样ssh-copy-id.
有没有办法告诉Vagrant在设置过程中应该包含我的公钥?如果没有(根据我的谷歌搜索结果,可能是这样),有没有办法在流浪汉设置过程中轻松附加我的公钥?
我坐在一个相当复杂的Ansible项目前面,我们用它来设置我们的本地开发环境(多个VM),并且有一个角色使用Ansible收集的事实来/etc/hosts在每个VM上设置文件.不幸的是,当你只想为一个主机运行playbook时(使用-limit参数),其他主机的事实(显然)都会丢失.
有没有办法强制Ansible在所有主机上收集事实,即使你将剧本限制在一个特定的主机上?
我们尝试在剧本中添加一个剧本来收集所有主持人的事实,但当然这也限于-limit参数给出的一个主持人.如果有一种方法可以强制这个游戏在其他播放之前在所有主机上运行,那将是完美的.
我已经google了一下,发现了使用redis进行事实缓存的解决方案,但由于我们的本地操作本使用,我想避免使用其他软件.我知道,这不是什么大不了的事,但我只是在寻找一个"更清洁",仅限Ansible的解决方案,并且想知道,如果存在的话.
我们设置了一个由3个经纪人组成的Kafka/Zookeeper群集.我们有一个生产者,向一个特定的Kafka主题发送消息,以及从该主题中读取的一些消费者群体.这些消费者通过Zookeeper为自己进行领导选举(独立于Kafka).
使用的版本是:
所有流程均由主管管理.到目前为止,一切正常.我们现在尝试的(出于测试目的)是简单地杀死所有Zookeeper进程并查看会发生什么.
正如我们所料,我们的消费者流程无法再连接到Zookeeper.但出乎意料的是,Kafka Brokers仍然有效.我们的制作人根本没有抱怨,仍然可以写入主题.虽然我不能用卡夫卡/斌/ kafka-topics.sh或类似,因为它们都需要饲养员参数,我仍然可以看到的话题-LOG增长的实际大小.重新启动zookeeper进程后,所有内容再次像以前一样工作.
我们现在想不出来的是......那里到底发生了什么?我们认为,Kafka需要一个有效的Zookeeper-Connection,我们无法在线找到任何有关此行为的解释.
所以我们目前正在尝试使用Kafka 0.9,并且几乎处于概念验证阶段.我们刚开始研究它并试图找出它,如果它是我们需要的.还有一些学习要做,所以请在这里忍受我:)
目前的设置如下:
现在我尝试使用kafka-reassign-partitions.sh脚本更改复制因子.为此我创建了以下JSON文件:
{"version":1,
"partitions":[
{"topic":"myTopic","partition":0,"replicas":[0,1,2]},
{"topic":"myTopic","partition":1,"replicas":[0,1,2]},
{"topic":"myTopic","partition":2,"replicas":[0,1,2]},
{"topic":"myTopic","partition":3,"replicas":[0,1,2]}
]
}
Run Code Online (Sandbox Code Playgroud)
...然后执行脚本:
kafka/bin/kafka-reassign-partitions.sh --zookeeper zkhost1:2181,zkhost2:2181,zkhost3:2181 --reassignment-json-file increase-replication-factor.json --execute
Run Code Online (Sandbox Code Playgroud)
这顺利进行,之后我得到了预期的复制:
Topic:myTopic PartitionCount:4 ReplicationFactor:3 Configs:
Topic: myTopic Partition: 0 Leader: 0 Replicas: 0,1,2 Isr: 0,2,1
Topic: myTopic Partition: 1 Leader: 0 Replicas: 0,1,2 Isr: 0,2,1
Topic: myTopic Partition: 2 Leader: 0 Replicas: 0,1,2 Isr: 0,2,1
Topic: myTopic Partition: 3 Leader: 0 Replicas: 0,1,2 Isr: 0,2,1
Run Code Online (Sandbox Code Playgroud)
我不明白的是,在重新分配期间分区发生了什么.当我查看ConsumerOffsetChecker时,这是我在重新分配之前看到的:
kafka/bin/kafka-run-class.sh kafka.tools.ConsumerOffsetChecker --group myGroup --zookeeper zkhost1:2181 …Run Code Online (Sandbox Code Playgroud)