SAN、NAS 和 DAS 之间有什么区别?
storage network-attached-storage storage-area-network direct-attached-storage
曾几何时,我构建了自己的 SQL 服务器,并且可以控制驱动器配置、RAID 级别等。传统的数据、日志、tempdb、备份分离建议(取决于预算!)始终是一个非常重要的部分SQL 服务器设计过程。
现在有了企业级 SAN,我只需为新 SQL 服务器请求特定数量的驱动器空间,分为用于数据、备份和文件共享的逻辑驱动器。当然让我的工作更轻松,但我的一部分感觉并不完全舒服,我无法真正窥视“幕后”,看看那里到底发生了什么。
我的理解是,SAN 团队不会以任何不同的方式配置不同“类型”的驱动器(优化数据驱动器以进行随机访问,而优化日志驱动器以进行流式写入)。其中一些可能取决于 SAN 产品本身(我们有 HP XP12000 和 HP XP24000),但我确信 HP 软件会进行各种动态性能配置(观察 IO 热点并动态重新配置以优化这些 LUN),这样应用程序团队和 DBA 就无需担心任何这些事情。关于“将所有服务器的负载分散到大量主轴上”之类的东西。
我的问题/讨论:
在不与 SAN 团队树敌的情况下,我如何让自己和应用程序开发人员放心,我们的 SQL 服务器不会受到配置不当的存储的困扰?只使用性能统计?其他基准,如sqlio?
如果我在这些 SAN 驱动器上进行负载测试,这是否真的为我提供了一个可靠的、可重复的衡量我们上线时将看到的内容?(假设 SAN 软件可能在不同的时间点以不同的方式“动态配置”。)
SAN 的某一部分(比如 Exchange 服务器)中的大量 IO 会影响我的 SQL 服务器吗?(假设他们没有为每个服务器提供专用磁盘,我被告知他们没有)
请求为不同功能的逻辑驱动器(数据 vs 日志 vs tempdb)分离逻辑驱动器在这里有帮助吗?SAN 会看到这些不同的 IO 活动并以不同的方式优化配置它们吗?
我们现在有点空间紧缩。应用程序团队被告知要修剪数据存档等。空间问题是否会导致 SAN 团队就如何配置可能影响服务器性能的内部存储(RAID 级别等)做出不同的决定?
感谢您的想法(在这个 SF 问题中简要讨论了类似的主题)
我建议这是一个关于企业级存储区域网络的规范问题。
什么是存储区域网络 (SAN),它是如何工作的?
它与网络附加存储 (NAS) 有何不同?
与直连存储 (DAS) 相比有哪些用例?
哪种方式更好或更差?
为什么这么贵?
我(或我的公司)应该使用一个吗?
这是一个关于 iSCSI的规范问题,我们可以用作参考。
iSCSI 是一种将 SCSI 命令作为有效负载放入 TCP 网络数据包的协议。因此,它会遇到一系列与光纤通道不同的问题。例如,如果链路拥塞并且交换机的缓冲区已满,默认情况下以太网将丢弃帧而不是告诉主机减速。这会导致重传,从而导致极小部分存储流量的高延迟。
有针对此问题的解决方案,具体取决于客户端操作系统,包括修改网络设置。对于以下操作系统列表,最佳 iSCSI 客户端配置是什么样的?它会涉及更改开关上的设置吗?存储呢?
将日志和数据文件分开以将磁盘与操作系统分开的标准做法(临时数据库、备份和交换文件也是如此) 当您的驱动器都是基于 SAN 并且您的 LUN 不是由特定磁盘或突袭集雕刻时,这种逻辑是否仍然有意义-它们只是 SAN 上 x 个驱动器的一部分,而 LUN 只是空间分配
VMware 和许多网络传播者试图告诉您,复杂(=昂贵)的光纤 SAN 是 VMware ESX 和 ESXi 服务器的“唯一”存储选项。嗯,是的,当然。使用 SAN 快速、可靠,并使 vMotion 成为可能。伟大的。但是:所有 ESX/ESXi 用户真的能负担得起 SAN 吗?
我的理论是,这个星球上所有 VMware ESX 安装中只有不到 20% 实际使用光纤或 iSCS SAN。大多数这些安装将在能够负担得起的大公司中进行。我预测大多数 VMware 安装使用“附加存储”(vmdks 存储在服务器内部的磁盘上)。他们中的大多数都在中小企业中运行,而且数量众多!
我们运行两台带有附加存储的 ESX 3.5 服务器和两台带有 iSCS san 的 ESX 4 服务器。两者之间的“真实生活差异”几乎不明显:-)
你知道这个问题的任何官方统计数据吗?你用什么作为你的存储介质?
是否有测试巨型帧是否实际工作的命令?即某种“ping”报告数据包是否沿途被分解。
我有一个带有 Ubuntu VM 的 ESXi 主机,它通过 iSCSI 安装了 Dell MD3000i。我怀疑交换机上未启用巨型帧,并且无法轻松获得管理员访问权限。我可以选择将磁盘阵列直接连接到 ESXi 主机,但首先需要某种方式来确认巨型帧是否存在问题。
FC 交换机如何工作,我应该如何配置我的交换机?
是否有适合与 Windows Server 2008/SQL Server 一起使用以进行故障转移群集的生产质量 iSCSI SAN?
到目前为止,我只见过戴尔的 MD3000i 和惠普的 MSA 2000 (2012i),它们的磁盘配置最少,价格都在 6000 美元左右。Buffalo(是的,我知道)有一个 1000 美元的设备支持 iSCSI,但他们说它不适用于 2008 故障转移集群。
我有兴趣在生产环境中看到适合故障转移的东西,但 IO 要求非常低。(集群,比如说,一个 30GB 的数据库。)
至于使用软件:在 Windows 上,StarWind 似乎有一个很好的解决方案。但这实际上比购买硬件 SAN 更划算。(据我所知,只有企业版支持拥有副本,而且一个许可证需要 3000 美元。)
我在想我可以使用 Linux,比如 DRBD + iSCSI 目标就可以了。但是,我还没有看到任何免费或低成本的 iSCSI 软件支持 SCSI-3 持久保留,这是 Windows 2008 故障转移群集所需要的。
我知道 6000 美元并不多,只是想看看是否有实用的更便宜的解决方案。最后,是的,该软件价格昂贵,但许多小型企业获得 MS BizSpark,因此 Windows 2008 Enterprise / SQL 2008 许可证是完全免费的。
windows-server-2008 cluster iscsi storage-area-network failover
为什么磁盘密集型应用程序在 SAN 上比在物理磁盘上运行得更快?我原以为物理磁盘会稍微快一点,但实际上,当它的工作驱动器设置为 SAN 上的分区时,该过程的运行速度会快 100 倍。
我们的猜测是 SAN 开箱即用优化为快速,而物理磁盘调整设置与操作系统 (Solaris) 相关并且尚未触及或操作系统修补。
在最高活动期间,磁盘 I/O 以 100% 运行,完成写入的时间超过 2 秒,因为多个进程同时写入磁盘。
(仅供参考,所涉及的应用程序是 Informatica PowerCenter)
storage ×5
iscsi ×4
performance ×2
sql-server ×2
cluster ×1
failover ×1
hard-drive ×1
jumboframes ×1
lun ×1
networking ×1
tcp ×1
tuning ×1
ubuntu ×1
vmware-esx ×1
vmware-esxi ×1