小编dbr*_*dbr的帖子

我还应该拥有物理 DC,即使是在 Server 2012 之后?

回到 Windows Server 2012 之前的时代,建议似乎是在虚拟化 DC 旁边至少放置一个物理域控制器。

这样做的一个理由是,如果您的 Hyper-V 主机是群集的,那么它们需要在启动期间可以联系到 DC。这对我来说完全有意义。

但是,我经常听到人们说,即使您没有集群设置,拥有物理 DC 仍然很重要(例如在一个简单的设置中,单个 Hyper-V 服务器运行几个 VM,一个其中是 DC)。这样做的理由似乎(我永远无法确定)您仍然会遇到问题,因为当 Hyper-V 主机首次启动时,网络上没有 DC。缓存凭据意味着您仍然可以登录,但是在启动期间发生的所有那些意味着周围有一个 DC 是有益的呢?这实际上是一个问题吗?实际上是否有任何可能运行的操作在启动时会导致问题吗?例如任何组策略?我基本上要问的是,物理 DC 论点是否仅在涉及聚类时才真正站得住脚,还是(2012 年之前)在没有聚类的情况下存在重要的技术案例?此文章 由Altaro(见“的‘鸡和蛋’神话”一节)暗示没有必要,但我仍然不确定。

现在到我问题的第二(也是主要)部分:

Windows Server 2012 引入了几个旨在解决虚拟化域控制器问题的功能,包括:

  1. VM-Generation ID - 这解决了 USN 回滚问题,这意味着不支持快照(或更具体地说,回滚到快照)/一个非常糟糕的主意
  2. Cluster Bootstrapping - 这解决了我上面提到的围绕故障转移集群的“鸡与蛋”问题。故障转移群集不再需要在启动期间存在 DC。

所以我的第二个问题与第一个问题类似,但这次是 2012+。假设 vDC 和主机都是 2012+ 年,并且您将集群排除在外,是否还有其他类似上述问题的问题,这意味着我仍然应该考虑使用物理 DC?我是否仍然应该考虑在我的单个非集群 2012/2012R2 Hyper-V 主机旁边安装一个物理 DC,该主机上有一个虚拟化 DC?我听说有些人建议将 AD 放在 Hyper-V 主机上,但由于各种原因(一开始禁用 WB 缓存),我不喜欢这个想法。

作为旁注,我的问题隐含地假设将 Hyper-V 主机加入域以提高可管理性是有意义的。这种说法经得起推敲吗?

更新:

在阅读了一些答案后,我发现我可以用稍微不同的措辞来表达我所问的核心问题:

即使在 2012 年及以后进行了改进,事实仍然是,如果另一台主机上没有任何物理 DC 或虚拟 DC,当没有可用 DC 时,主机仍会启动。这实际上是一个问题吗?从某种意义上说,如果您完全将虚拟化排除在外,我认为这是相同(或非常相似)的问题。如果您定期在任何 DC 之前启动成员服务器,这是一个问题吗?

active-directory hyper-v windows-server-2012 windows-server-2012-r2

31
推荐指数
3
解决办法
1万
查看次数

在某些情况下,“企业”驱动器可以安全地替换为近线/中线吗?

在指定服务器时,例如(我假设)许多不是存储专家的工程师,我通常会通过标准化至少 10k SAS 驱动器(因此是“具有 24x7 占空比等的企业”级)用于“系统”数据(通常是操作系统,有时是应用程序),并保留使用 7.2k 中/近线驱动器来存储性能不重要的非系统数据因素。这都是假设 2.5" (SFF) 磁盘,因为 3.5" (LFF) 磁盘仅与高容量、低 IOP 要求真正相关。

在没有大量非系统数据的情况下,我通常会将其放置在与系统数据相同的磁盘/阵列上,这意味着服务器只有 10k SAS 驱动器(通常为“One Big RAID10”类型)这些天的设置)。只有当非系统数据的大小很大时,我通常才会考虑将它放在一个单独的 7.2k 中/近线磁盘阵列上以降低成本/GB。

这让我想知道:在某些情况下,RAID10 阵列中的那些 10k 磁盘是否可以被 7.2k 磁盘替换而不会产生任何严重的负面影响?换句话说,我是否有时会通过坚持至少 10k 的“企业”级磁盘来过度规范(并使硬件供应商满意),还是有充分的理由始终坚持最低限度?

例如,假设一台服务器充当管理程序,并为一家典型的小公司(例如 50 个用户)配备几个 VM。该公司具有平均 I/O 模式,没有特殊要求。典型的朝九晚五,周一至周五的办公室,每晚运行几个小时的备份。VM 可能是 DC 和文件/打印/应用程序服务器。服务器有一个 RAID10 阵列,有 6 个磁盘来存储所有数据(系统和非系统数据)。在我的非专业人士看来,中线/近线盘似乎可以做得很好。以HP磁盘为例:

  • 工作负载:中线磁盘的额定工作负载小于 40%。由于办公室每天只开放 9 小时,并且在此期间的平均 I/O 不太可能接近最大值,工作量似乎不太可能超过 40%。即使晚上有几个小时的密集 I/O 进行备份,我猜它仍然会低于 40%
  • 速度:虽然磁盘只有 7.2k,但通过将其分散到六个磁盘来提高性能

所以,我的问题是:坚持至少 10k SAS 驱动器是否明智,或者在许多情况下 7.2k 中线/近线磁盘实际上已经绰绰有余?如果是这样,我如何判断线路在哪里,并通过谨慎行事来避免成为无知的奴隶?

我的经验主要是在 HP 服务器上,所以上述内容可能有点 HP 的倾向,但我认为这些原则与供应商无关。

hardware raid storage hard-drive hp

22
推荐指数
2
解决办法
3652
查看次数

为什么大尺寸 (LFF) 磁盘仍然相当普遍?

小型 (SFF) / 2.5" 磁盘现在似乎比 LFF 磁盘更受欢迎,因为它们在许多情况下(低功耗、更高密度等)优于 LFF 磁盘。然而,LFF 磁盘似乎仍然具有在主要供应商的产品中(以最近发布的惠普 Gen9 系列服务器为例)。

从磁盘的价格来看,在大多数较低(低于 500GB)的容量中,这些天似乎几乎没有价格差异。这就引出了一个问题,为什么它们仍然足够受欢迎,让供应商觉得值得投资以支持他们的最新产品?纯粹是因为 LFF 外形尺寸的磁盘比 SFF 磁盘的容量更大,还是有其他原因使它们仍然受欢迎?

在此基础上,我试图了解在 SSF 上指定带有 LFF 机箱/磁盘的现代服务器的客观理由是什么。什么场景/要求可能意味着 LFF 将是首选?如果您需要以合理的成本购买数 TB 的大型磁盘,您真的会这样做吗?还是有其他原因?

hardware storage hard-drive

14
推荐指数
2
解决办法
3万
查看次数

RAID 级别对 IOPS 的影响

关于 IOPS,我在网上看到几个消息来源表明给定磁盘数量的 IOPS 只是单个磁盘的 IOPS 乘以磁盘数量。

如果我对 IOPS 的理解是正确的(我完全不确定),我会认为现实将取决于 - 在许多其他因素中 - RAID 级别。使用 RAID 1/10,所有数据都至少在两个磁盘上复制,从而减少了某些 IO 模式在特定磁盘上的争用。但是,在条带化 RAID 级别(例如 RAID 0/5/6)中,数据是分布的而不是复制的,这意味着连续的读取请求可能针对同一主轴,从而导致在前一个 IO 完成时发生阻塞。写的更有争议。

我应该补充一点,由于各种优化和其他因素,我意识到现实要复杂得多。我的问题实际上只是在非常基本的层面上推动我对 IOPS 含义的理解是否在正确的轨道上。可能是我断言 IOPS 甚至可能以这种方式受到 RAID 级别的影响,这表明对该概念的基本误解。

raid performance storage iops

14
推荐指数
1
解决办法
9581
查看次数

为远程工作者部署软件更新

我们有许多笔记本电脑用户,对他们来说,可靠、及时地部署软件更新是一个问题。

情况是:

  • 用户很少进入办公室。结果,他们的计算机在启动期间很少连接到域/公司 LAN
  • 用户没有本地管理员权限
  • 登录前 VPN 连接可用
  • 更新是典型的核心应用程序(Java、Adobe Reader 等),以及一些业务应用程序。从 MSI 到自解压 zip 的所有东西的混合
  • 目前没有使用第三方部署工具
  • 相当小的部署(目前少于 50 个用户)所以没有非常重量级解决方案的预算或资源
  • 用户在启动后(通常在登录后)通过典型的客户端 VPN 定期连接到网络(在这种情况下恰好是 RRAS/SSTP,但可能不相关)
  • 有问题的计算机是加入域的 Windows 8.1 Pro 计算机。服务器都是Windows Server 2012 R2

由于在启动期间缺乏与公司网络的连接,组策略软件安装似乎不是部署应用程序更新(或与此相关的新应用程序)的可行选项,但我很高兴收到这样的建议除此以外。

DirectAccess 可能会提供更多选择,但在可预见的未来不是一个选择。

所以,我的问题是:人们会推荐哪些解决方案,以便向在启动期间很少连接到公司 LAN 的移动用户可靠、及时地部署应用程序/应用程序更新?如果小型企业可以使用第三方工具,我愿意接受它们。

我注意到这个答案表明 Intune 可能值得调查(SCCM 可能太多了)。任何其他建议非常感谢。

windows deployment group-policy

6
推荐指数
1
解决办法
1407
查看次数

用于 iSCSI 的专用 NIC 或专用端口?

在指定和配置将使用共享 iSCSI 存储的机器时,我阅读了大量文档,其中建议应使用专用网络适配器进行 iSCSI 通信。这很有意义,我对此没有任何问题。我确实有一个问题,这是 - 该建议是否意味着应该使用单独的物理网卡,还是双/四端口网卡上的专用端口/端口也一样好?我怀疑只是在共享 NIC 上使用专用端口也一样好。

任何输入都非常感谢。

networking performance iscsi

5
推荐指数
1
解决办法
2264
查看次数

将跳线切割成一定长度

我正在为机架重新布线,并希望将电缆剪成一定长度,以使一切尽可能整洁。我发现 Cat5e/Cat6 电缆的供应商只提供 100m 倍数的散装电缆。我不需要接近那种数量的任何地方,并且购买所需的每种颜色的数量会不必要地昂贵。到目前为止,我还没有找到很多供应商可以提供更短长度的散装电缆以满足我的需要。

我的问题是 - 如果我想能够做到以上几点,我应该:

a) 继续寻找能够提供更适合我的要求的更短长度的散装电缆的供应商(也许是按订单切割?)。这是常见的吗?

b) 购买单独的预制跳线,将它们切割成一定长度并压接新的连接器?

c) 放弃这个想法,只使用最合适长度的预制跳线?

d) 我还没有考虑过的其他一些选择?

我还应该提到,我知道关于制作自己的电缆与购买预制电缆的劳动力成本争论。我当然不会为我使用的每条电缆都这样做,但是对于机架布线,我认为获得的额外整洁是值得的。

非常感谢任何建议。

networking cable

4
推荐指数
2
解决办法
3155
查看次数

如果可能,在两个物理 NIC 之间分隔 iSCSI 流量?

这个问题是Dedicated NIC or dedicated port for iSCSI的后续问题

排除在上述问题的公认答案中提出的硬件 iSCSI 启动器点,似乎在多端口 NIC 上为 iSCSI 使用单独的端口几乎可以满足使用“单独的 NIC”的建议iSCSI 流量。

我正在规划一个小型 iSCSI 安装,该安装使用冗余路径/交换机通过 MPIO 将两个集群节点连接到一个存储阵列。因此,每个节点都有四个到 iSCSI 交换机的物理网络连接。

每台机器有两个四端口 NIC。非 iSCSI 流量需要四个端口,上述 iSCSI 流量需要四个端口,这意味着所有八个端口都将被使用。

我的问题是 - 如果你有多个物理网卡在盒子里,你应该把你的 iSCSI 连接拆分到两个网卡来处理网卡故障(在我的情况下每个端口有 2 个),还是应该坚持保留所有单个 NIC 上的 iSCSI 流量?我的预感是将流量分开,但我想了解那些对 iSCSI 有更多实际经验的人的想法。这样做会不会遇到某种意想不到的复杂情况?

尽管我已经在我的特定示例的上下文中提出了这个问题,但我已经尝试提出一个希望适用于其他类似配置的一般性问题。

非常感谢任何帮助。

storage iscsi storage-area-network

3
推荐指数
1
解决办法
912
查看次数

如何以及为什么可以通过 DSL 线路实现 PPPoE?

通常(至少在英国),DSL 线路上的身份验证方法是 PPPoA。这是有道理的,根据我的理解,DSL 通常使用 ATM 模式,这意味着 ATM/AAL5 位于堆栈中的低级 DSL 协议之上。这就引出了一个问题,为什么有些 ISP 支持 PPPoE 的使用,以及如何通过 ATM 实现?PPPoE 是不是先封装在以太网帧中,然后再传递给AAL5/ATM?这不会引入额外的开销和复杂性,如果是这样,您为什么要这样做?PPPoE 是否提供某些在某些情况下需要的优势或附加功能?

TIA

networking pppoe adsl dsl

0
推荐指数
1
解决办法
952
查看次数