小编teh*_*ehK的帖子

如何将自己的公钥添加到Vagrant VM?

我在向Vagrant VM添加ssh密钥时遇到了问题.基本上我在这里的设置工作正常.一旦创建了VM,我就可以访问它们vagrant ssh,用户"vagrant"存在,并且该authorized_keys文件中有该用户的ssh密钥.

我现在要做的是:能够通过ssh或使用连接到这些VM scp.所以我只需要将我的公钥添加id_rsa.pubauthorized_keys- 就像我一样ssh-copy-id.

有没有办法告诉Vagrant在设置过程中应该包含我的公钥?如果没有(根据我的谷歌搜索结果,可能是这样),有没有办法在流浪汉设置过程中轻松附加我的公钥?

ssh public-key vagrant

66
推荐指数
6
解决办法
7万
查看次数

强制所有主机上的事实收集

我坐在一个相当复杂的Ansible项目前面,我们用它来设置我们的本地开发环境(多个VM),并且有一个角色使用Ansible收集的事实来/etc/hosts在每个VM上设置文件.不幸的是,当你只想为一个主机运行playbook时(使用-limit参数),其他主机的事实(显然)都会丢失.

有没有办法强制Ansible在所有主机上收集事实,即使你将剧本限制在一个特定的主机上?

我们尝试在剧本中添加一个剧本来收集所有主持人的事实,但当然这也限于-limit参数给出的一个主持人.如果有一种方法可以强制这个游戏在其他播放之前在所有主机上运行,​​那将是完美的.

我已经google了一下,发现了使用redis进行事实缓存的解决方案,但由于我们的本地操作本使用,我想避免使用其他软件.我知道,这不是什么大不了的事,但我只是在寻找一个"更清洁",仅限Ansible的解决方案,并且想知道,如果存在的话.

hosts limit ansible ansible-facts

22
推荐指数
3
解决办法
9467
查看次数

如果Zookeeper完全失败会怎么样?

我们设置了一个由3个经纪人组成的Kafka/Zookeeper群集.我们有一个生产者,向一个特定的Kafka主题发送消息,以及从该主题中读取的一些消费者群体.这些消费者通过Zookeeper为自己进行领导选举(独立于Kafka).

使用的版本是:

  • 卡夫卡:0.9.0.1
  • Zookeeper:3.4.6(包含在Kafka-Package中)

所有流程均由主管管理.到目前为止,一切正常.我们现在尝试的(出于测试目的)是简单地杀死所有Zookeeper进程并查看会发生什么.

正如我们所料,我们的消费者流程无法再连接到Zookeeper.但出乎意料的是,Kafka Brokers仍然有效.我们的制作人根本没有抱怨,仍然可以写入主题.虽然我不能用卡夫卡/斌/ kafka-topics.sh或类似,因为它们都需要饲养员参数,我仍然可以看到的话题-LOG增长的实际大小.重新启动zookeeper进程后,所有内容再次像以前一样工作.

我们现在想不出来的是......那里到底发生了什么?我们认为,Kafka需要一个有效的Zookeeper-Connection,我们无法在线找到任何有关此行为的解释.

failover apache-kafka apache-zookeeper

11
推荐指数
1
解决办法
3475
查看次数

在重新分配分区时(特别是logsize),Kafka会发生什么?

所以我们目前正在尝试使用Kafka 0.9,并且几乎处于概念验证阶段.我们刚开始研究它并试图找出它,如果它是我们需要的.还有一些学习要做,所以请在这里忍受我:)

目前的设置如下:

  • 3个Kafka经纪人在不同的主机上:zkhost1,zkhost2,zkhost3
  • 一个主题:"myTopic"
  • 该主题有4个分区
  • 复制因子为1
  • 我们有一个生产者和三个消费者,都在同一个消费者群体"myGroup"中

现在我尝试使用kafka-reassign-partitions.sh脚本更改复制因子.为此我创建了以下JSON文件:

{"version":1,
"partitions":[
    {"topic":"myTopic","partition":0,"replicas":[0,1,2]},
    {"topic":"myTopic","partition":1,"replicas":[0,1,2]},
    {"topic":"myTopic","partition":2,"replicas":[0,1,2]},
    {"topic":"myTopic","partition":3,"replicas":[0,1,2]}
    ]
}
Run Code Online (Sandbox Code Playgroud)

...然后执行脚本:

kafka/bin/kafka-reassign-partitions.sh --zookeeper zkhost1:2181,zkhost2:2181,zkhost3:2181 --reassignment-json-file increase-replication-factor.json --execute
Run Code Online (Sandbox Code Playgroud)

这顺利进行,之后我得到了预期的复制:

Topic:myTopic   PartitionCount:4    ReplicationFactor:3 Configs:
Topic: myTopic  Partition: 0    Leader: 0   Replicas: 0,1,2 Isr: 0,2,1
Topic: myTopic  Partition: 1    Leader: 0   Replicas: 0,1,2 Isr: 0,2,1
Topic: myTopic  Partition: 2    Leader: 0   Replicas: 0,1,2 Isr: 0,2,1
Topic: myTopic  Partition: 3    Leader: 0   Replicas: 0,1,2 Isr: 0,2,1
Run Code Online (Sandbox Code Playgroud)

我不明白的是,在重新分配期间分区发生了什么.当我查看ConsumerOffsetChecker时,这是我重新分配之前看到的:

kafka/bin/kafka-run-class.sh kafka.tools.ConsumerOffsetChecker --group myGroup --zookeeper zkhost1:2181 …
Run Code Online (Sandbox Code Playgroud)

apache-kafka

5
推荐指数
0
解决办法
523
查看次数