我有两台想要虚拟化的物理机。
我无法(物理上)将硬盘从任何一台机器插入到将充当其虚拟机主机的新机器中,因此我认为复制系统的整个结构来使用dd是不可能的。
我怎样才能最好地将这些机器从其硬件迁移到 KVM 环境?我设置了空的、未格式化的 LVM 逻辑卷来托管其文件系统,并理解为虚拟机提供一个真正的分区来使用比在文件系统上粘贴映像可以获得更高的性能。
我最好创建新的操作系统安装并重新同步差异吗?
FWIW,两台要进行 VM 的机器运行 CentOS 5,主机运行 Ubuntu Server 10.04,没有什么特别重要的原因。我怀疑这太重要了,因为重要的仍然是 KVM 和 libvert。
virtualization migration physical-to-virtual kvm-virtualization
我的 L3 核心交换机 Nortel ERS 8600 兼容 IPv6。但是,在迁移到 IPv6 的过程中,我们是否还需要检查基于 VLAN 的园区网络中边缘/分布交换机的兼容性?
关于自由,我一直在寻找一种从所有虚拟机中“清空”管理程序的方法。在nova client docs 中,我发现了以下与此相关的命令:
nova evacuate : 从故障主机中疏散服务器。
nova migrate :迁移服务器。新主机将由调度程序选择
nova live-migration : 将正在运行的服务器迁移到新机器上。
和:
nova host-evacuate :从故障主机中撤离所有实例。
nova host-evacuate-live :将指定主机的所有实例实时迁移到其他可用主机。
nova host-servers-migrate :将指定主机的所有实例迁移到其他可用主机。
我可以使用第一组中的命令将服务器(又名 VM)从一个虚拟机管理程序一个一个地移动到另一个虚拟机管理程序。类似地,通过使用来自第二组的命令,以管理程序为目标,其所有服务器都被移动到其他管理程序。混乱来了。
当用于工作管理程序时,“迁移”和“撤离”命令(除了参数略有不同)之间有什么区别?
他们是在做同样的事情,还是他们在下面不同而我遗漏了什么?应该在某些情况下使用一种,而在其他情况下使用另一种吗?即使在词汇表上也说:
所以,应该是类似的。但是为什么两者都存在呢?
我很好奇人们如何db migrate在他们的 eb 应用程序上运行命令。如果您将其添加为一个.ebextensions我担心当您为一个应用程序有多个实例时,如果多个服务器尝试运行相同的迁移,则可能会发生冲突。
应该在部署过程中的什么时候db migrate运行命令?
也许这是一个很愚蠢的问题。我在 XenServer 上安装了一个新的 VM。它从 NAS 的 iSCSI 加载整个系统。现在我计划迁移到 Proxmox,因为 XenServer 在 USB 直通方面存在不足。尽管如此,我不知道如何:
a) 访问 iSCSI 磁盘并将其转换为另一种格式(本例中为 qcow2,但现在格式不重要)。b) 从系统中取出该图像。c) 在新机器上再次将其连接到 iSCSI NAS。
我不知道该怎么做,因为我无法从 NAS (QNAP)“读取”iSCSI 分区。从 XenServer,我知道如何创建快照到本地存储,因此迁移该映像不会那么困难。但是……稍后如何返回到 iSCSI?
欢迎任何建议。
提前致谢
我的来宾机器有 2 个分区(80GB + 1TB)。它们都在 LVM 上。我想以最短的停机时间将所有磁盘传输到另一台机器。我用nc转移了另一台机器。这需要 4 天,在转移期间我的 VM 关闭了。
我尝试在传输脏页后制作快照。但是 AFAIK 和 LVM 是不可能的。我的目标机器没有 LVM 设置和可用的未分区空间。所以在目标机器上的磁盘必须是原始文件映像。
<disk type='block' device='disk'>
<driver name='qemu' type='raw' cache='none'/>
<source dev='/dev/vg-datastore/lv-vm-1138'/>
<target dev='vda' bus='virtio'/>
<address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0'/>
</disk>
<disk type='block' device='disk'>
<driver name='qemu' type='raw' cache='none'/>
<source dev='/dev/vg-datastore-sata/lv-vm-1138-2'/>
<target dev='vdb' bus='virtio'/>
<address type='pci' domain='0x0000' bus='0x00' slot='0x08' function='0x0'/>
</disk>
Run Code Online (Sandbox Code Playgroud)
源主机:
目标主机:
我已将现有的 Unifi 控制器迁移到另一台服务器。当配置向导出现时,我在“导入”登录屏幕出现后选择“从备份恢复”,但登录不起作用。
我试过这些版本
5.5.24 -> 5.5.24和
5.5.24 -> 5.6.26
任何想法我做错了什么?
我正在使用 Pacemaker/OpenAIS 管理运行 NFS v4 的服务器。NFS 配置为使用 TCP。当我将 NFS 服务器迁移到 Pacemaker 集群中的另一个节点时,即使元数据被保留,来自客户端的连接也会“挂起”并最终在 90 秒后超时。90 秒后,旧的挂载点变为“陈旧”,无法再访问挂载的文件。
90 秒宽限期似乎是服务器配置的一部分,而不是客户端配置。我在服务器上看到此消息:
内核:NFSD:开始 90 秒宽限期
如果我在迁移(卸载然后重新安装共享)后重新启动客户端节点上的 NFS 客户端,则不会遇到该问题,但连接和文件传输仍然中断。
三个问题:
我正在研究 Citrix 的 XenServer,并且(与 2 个同事)将它与 VMware ESX 和 Microsoft HyperV 进行比较。
在我们的测试中,似乎 Xen 的实时迁移比 VMware 的 ESX 使用更少的资源,我想知道这是为什么。我发现去年的一篇文章引用了 2005 年的一篇论文,解释了实时迁移期间页面/内存的实际情况。
这是关于内存传输的那篇文章的摘录:
推送阶段 - 当某些页面通过网络推送到新目标时,源虚拟机继续运行。为确保一致性,在此过程中修改的页面必须重新发送。
停止和复制阶段 源 VM 停止,页面被复制到目标 VM,然后启动新 VM。
拉取阶段 新 VM 执行,如果它访问尚未复制的页面,则该页面将通过网络从源 VM 出现故障(“拉出”)。
我想知道内存转移是否仍然像 4 年前那样以相同的方式发生。
我有一个戴尔 PE 2850 芯片,我需要将它的 SCSI 磁盘移到另一个 PE 2850。这些磁盘在 RAID1 中。我试着把它们移过来,只是希望 PERC 会做正确的事情,但它没有自动安装它们或任何东西。
在 PERC 4e/Di 配置实用程序中,我可以看到两个新磁盘,但我不确定如何在不破坏这些磁盘上的数据的情况下告诉它使用它们。在线 PERC 手册除了“按原样使用预加载的 SCSI 驱动器”一节之外没有提到迁移磁盘,该部分假设我可以访问原始控制器以设置一些逻辑驱动器编号。
我可以在新机器上安全地将这两个磁盘添加到 RAID1 中而不会丢失数据吗?我不能只在那里放一个 - 它不允许单个未 RAID 的磁盘。