我们最近收到了来自戴尔的许多服务器,所有这些服务器都在 BIOS 中禁用了硬件辅助虚拟化。
据我所知,硬件辅助虚拟化是一件好事——那么戴尔为什么要禁用它呢?如果机器不充当虚拟机主机,它是否有性能开销?是否存在任何安全问题?
如果它与您的答案相关,我们将主要使用:
能否在虚拟机中安装和使用 VMWare ESX 或 ESXi?
它可以安装在VMWare Workstation 或Server 中,但它不起作用;主要症状是:
"You may not power on a virtual machine in a virtual machine".标题几乎说明了一切,为 VM 提供 2048MB 内存而不是舍入到 base-10 并执行 2000MB 有什么优势吗?
我使用 VMWare 已经很多年了,运行了几十台生产服务器,几乎没有问题。但我从未尝试在单个物理主机上托管 20 多个虚拟机。这是一个想法:
我想看看是否有人能够通过 VMWare 实现这种可扩展性?我做了一些测试,遇到了一个奇怪的问题。一旦启动 20 个虚拟机,虚拟机性能就会开始急剧下降。同时,主机服务器没有出现任何资源瓶颈(磁盘空闲 99%,CPU 利用率低于 15%,有足够的空闲 RAM)。
如果您能分享有关扩展 VMWare 或任何其他虚拟化技术的成功案例,我将不胜感激!
我正在尝试将基于文件的磁盘热添加到正在运行的 KVM 虚拟服务器。我使用命令从头开始创建了一个新磁盘
dd of=/home/cloud/vps_59/test.img bs=1 seek=5G count=0
Run Code Online (Sandbox Code Playgroud)
我希望通过在 virsh shell 中执行此操作来将其热添加到来宾中:
virsh # attach-disk vps_59 /home/cloud/vps_59/test.img \
vdd --driver=file --subdriver=raw
Run Code Online (Sandbox Code Playgroud)
然后域的 XML 定义变为:
<disk type='file' device='disk'>
<driver name='qemu' type='raw'/>
<source file='/home/cloud/vps_59/root.img'/>
<target dev='vda' bus='virtio'/>
</disk>
<disk type='file' device='disk'>
<driver name='file' type='raw'/>
<source file='/home/cloud/vps_59/test.img'/>
<target dev='vdd' bus='virtio'/>
</disk>
Run Code Online (Sandbox Code Playgroud)
如您所见,驱动程序名称错误,应该是driver name='qemu'现有vda磁盘。我已经尝试过,--drive=qemu但它表示它不受支持。
其次,一旦我重新启动运行 Ubuntu 10.04.4 LTS 的虚拟机,我只会“看到”新添加的驱动器。如何使驱动器“热插拔”?我希望虚拟机无需重新启动即可立即“看到”新驱动器。
virtualization storage virtual-machines libvirt kvm-virtualization
x86/x64 虚拟化(我可能会使用 VirtualBox,可能是 VMWare,绝对不是半虚拟化)对于使用 Intel 硬件虚拟化的 Win64 主机和 Linux64 客户机的以下每个操作有多少开销?
纯粹受 CPU 限制的用户模式 64 位代码
纯粹受 CPU 限制的用户模式 32 位代码
到硬盘驱动器的文件 I/O(我主要关心吞吐量,而不是延迟)
网络输入/输出
线程同步原语(互斥体、信号量、条件变量)
线程上下文切换
原子操作(使用lock前缀,比较和交换之类的东西)
我主要对硬件辅助 x64 案例(Intel 和 AMD)感兴趣,但也不介意听到有关无辅助二进制转换和 x86(即 32 位主机和来宾)案例的信息。我对半虚拟化不感兴趣。
将现有硬件转换为虚拟化环境后,有哪些陷阱或经验教训?是否有任何您尝试虚拟化但永远不会再做的事情?
我还是 ZFS 的新手。我一直在使用 Nexenta,但我正在考虑切换到 OpenIndiana 或 Solaris 11 Express。现在,我正在考虑将 ZFS 服务器虚拟化为 ESXi、Hyper-V 或 XenServer 中的客户机(我还没有决定哪一个 - 我倾向于使用 ESXi 来支持 VMDirectPath 和 FreeBSD)。
主要原因是我似乎有足够的资源可以轻松地同时运行 1-3 个其他 VM。主要是 Windows 服务器。也可能是 Linux/BSD VM。我希望虚拟化 ZFS 服务器托管其他 VM 的所有数据,以便它们的数据可以保存在与 ZFS 磁盘分离的物理磁盘上(以 iscsi 或 nfs 安装)。
该服务器目前有一个 AMD Phenom II,总共有 6 个内核(2 个未锁定)、16GB RAM(最大)和一个 LSI SAS 1068E HBA,连接了 (7) 个 1TB SATA II 磁盘(计划在带热备件的 RAIDZ2 上)。我还有 (4) 个 32GB SATA II SSD 连接到主板。我希望将两个 SSD 镜像到引导镜像(用于虚拟主机),并将另外两个 SSD 留给 ZIL 和 L2ARC(用于 ZFS VM 来宾)。我愿意再添加两个磁盘来存储 VM 来宾并将所有七个当前磁盘分配为 ZFS …
我正在准备认证,并在本地安装了 CentOS7(VirtualBox)和基于云的服务中的另一个实例。
在本地系统上我有一个/dev/sda,在基于云的系统上我有一个/dev/vda.
现在我想知道这种差异究竟意味着什么?这个设备的命名是否有标准(文档?),不同的名称代表什么?
编辑:
我觉得这个文档对理解命名非常有用:https : //www.kernel.org/doc/Documentation/admin-guide/devices.txt
8 block SCSI disk devices (0-15)
0 = /dev/sda First SCSI disk whole disk
16 = /dev/sdb Second SCSI disk whole disk
32 = /dev/sdc Third SCSI disk whole disk
...
240 = /dev/sdp Sixteenth SCSI disk whole disk
Run Code Online (Sandbox Code Playgroud)
但是我找不到关于/dev/vda 的一些信息。
virtualization ×10
performance ×2
storage ×2
vmware-esx ×2
64-bit ×1
dell ×1
devices ×1
hardware ×1
host ×1
hyper-v ×1
libvirt ×1
nexenta ×1
scalability ×1
security ×1
vmware-esxi ×1
x86 ×1
zfs ×1