标签: network-attached-storage

我的 Qnap NAS 上的“启用位图”是什么?

我的 Qnap NAS 上的“启用位图”是什么?它可以让我在出现故障时恢复数据吗?

network-attached-storage

8
推荐指数
3
解决办法
3万
查看次数

阵列可用空间要求

一般的经验法则是不要使用超过 80-85% 的容量,否则性能会急剧下降,并且可能会发生其他不好的事情。

在 8TB 的阵列上,这意味着必须留出大约 1.6TB 的空间!一个 40TB 的阵列需要大约 8TB 的可用空间!

这仍然是较大数组的约定吗?我是否在桌子上留下了太多的磁盘空间?

zfs storage network-attached-storage storage-area-network freenas

8
推荐指数
1
解决办法
523
查看次数

将 Hyper-V 虚拟磁盘移动到 SMB 共享最终会导致文件未找到错误

我想将一些虚拟磁盘从旧的 ISCSI 磁盘(旧 NAS)移动到新的 SMB 共享,但是对于每个磁盘,它最终都会给出一个文件未找到错误,并将 SMB 共享上的磁盘位置作为文件而不是找到位置。

无论我是从主机服务器上的本地磁盘还是从 ISCSI 磁盘移动虚拟磁盘都没有什么不同。他们最终给出了同样的错误。我正在使用 Hyper-V 管理器的移动功能移动它们,并且还尝试手动移动它们并更新管理器中的位置

是否有关于可能导致这种情况的建议?

NAS 是在 SMB 2.0 和更高模式下设置的 2U Synology Rack。共享(和 NAS)上有足够的空间。服务器是Windows 2012 R2

network-attached-storage hyper-v server-message-block vhdx

8
推荐指数
1
解决办法
982
查看次数

构建具有冗余功能的家用 NAS 的最佳方式

我的家庭网络需要一个 NAS 设备,以便从我的笔记本电脑上获取这些高价值文件(家庭照片、音乐、编码项目等)。我的目标是便宜又可靠。

我有一台闲置的旧 PC,我打算安装 FreeNAS 并插入一些 SATA 驱动器。它是 Gateway P3-500,512MB RAM,带有 2 个可用的内部驱动器托架

我需要的是数据冗余,因此如果单个驱动器出现故障,我不会丢失所有内容。我正在考虑购买一个 PCI SATA 控制器和 2 个 SATA 驱动器,然后配置为软件 RAID 1。

我想使用 Windows 共享访问文件,因为它最简单。FreeNAS 为我的 Ubuntu 桌面提供了其他 Unix-y 协议,这是一个加分项。

我应该使用 FreeNAS 还是有更好的硬件/软件解决方案?

storage network-attached-storage

7
推荐指数
1
解决办法
8069
查看次数

磁带存储 - 如何设置用于我的 NAS 的磁带备份系统

我目前有一个带有 raid 5 配置(~600gb 存储)的 QNAP NAS,但没有可靠的备份解决方案。我听说过有关磁带备份系统的好消息(可靠性、耐用性等)。

如何设置磁带备份系统?磁带驱动器似乎非常昂贵(一个体面的磁带驱动器为 1k+,比我的 NAS 的价格还高)。要比较的重要规格和要考虑的功能是什么?

编辑:有没有人有一些好的资源的链接?有大量关于这个主题的文章、指南和网站,不知道从哪里开始。

backup network-attached-storage tape tapedrive

7
推荐指数
1
解决办法
9789
查看次数

ReadyNAS 上格式错误的 rsync 命令

我正在尝试在我的 ReadyNAS 上设置 rsync 备份,但出现以下错误:

ERROR: The remote path must start with a module name not a /
Run Code Online (Sandbox Code Playgroud)

此错误伴随以下信息:

Job: 015
Protocol: rsync
Source: 192.168.140.25::/home/jason
Destination: [gob]/
Run Code Online (Sandbox Code Playgroud)

我认为这个错误是有道理的,因为看看当我尝试这个时会发生什么:

$ rsync -r 192.168.140.25::/home/jason dest/
ERROR: The remote path must start with a module name not a /
Run Code Online (Sandbox Code Playgroud)

命令失败。如果我只稍微改变它,它就会成功:

$ rsync -r 192.168.140.25:/home/jason dest/
Run Code Online (Sandbox Code Playgroud)

所以问题是:为什么 ReadyNAS 试图运行带有额外冒号的 rsync 命令?rsync 的工作方式有什么我不明白的吗?

backup network-attached-storage rsync readynas

7
推荐指数
1
解决办法
9073
查看次数

NAS 在中高端存储阵列上的用例是什么?

除了 FCP、FCoE 或 iSCSI 之外,许多大型存储供应商(EMC、NetApp 等)还提供执行 NAS 的存储设备。

什么时候适合使用这些盒子的 NAS 功能?在 SMB 环境中,NAS 是一种更便宜的替代品,文件服务器的管理开销更低,但为什么买得起 VNX 的人不只是将块级存储映射到文件服务器并以这种方式共享呢?直接使用这些设备的 NAS 组件有什么好处?

storage network-attached-storage nfs

7
推荐指数
2
解决办法
2534
查看次数

建议:为虚拟化存储配置 10GbE NAS 堆栈

我会尽我所能来表达这个,所以它不被视为购物清单。

我们已经成功运行了一段时间的开发/测试 ESXi 环境,在 HP MSA2012fc 入门套件(带有基于 Brocade 的 HP B 类 SAN 交换机)上使用了几个 Dell PE2950III 服务器。这对我们来说非常有效,但在开发/测试中,它在正常运行时间/性能方面存在各种警告。

在任何情况下,开发/测试平台的公认成功导致了对更加“生产就绪”的虚拟化平台的呼吁。我们目前正在起草建议。

然而,针对现有堆栈的抱怨之一是缺乏对其他虚拟化技术(HyperV、Xen 等)的支持,因为 SAN LUN 已完全分配并格式化为 VMFS。这是我们被告知要克服的问题,但通常情况下,没有迹象表明 HyperV/Xen 被采用(而且我们并不特别想通过将 LUN 分配到这样的位置来浪费“昂贵”的存储资源)不会被使用)。

因此,我们目前的思路是放弃传统的光纤 SAN,转而采用直接的 CentOS 机器(可能是更高端的 HP ProLiant DL380p Gen8),运行 NFS 和 Samba/CIFS 守护进程,带有 10GbE 交换机(可能是Cisco Nexus 5000/5500 系列)。

原因是 ESXi 头可以谈论 NFS,HyperV 头可以谈论 CIFS,但两者最终都指向相同的 XFS/RAID1+0 卷。

现在,我还不够环保,认为 10GbE 可以让我在磁头和磁盘之间获得真正的 10 Gb I/O 吞吐量,但我不知道我可以期望看到的开销类型NFS 和 CIFS 实现(以及当多个主机尝试与之交谈时可能会干扰的任何其他位)。

希望能至少也得的持续磁盘读取直连磁盘/写速度,不过,为尽可能多的主机,我可以。查看各种驱动器制造商的网站,我大致预计该速度将在 140-160MB/s 左右(如果我不知道,请告诉我)。

任何人都可以提供关于 Linux/NFS/Samba 或 10GbE 交换机配置的哪些建议/指南/进一步阅读可能有助于实现这一目标?

virtualization storage network-attached-storage nfs 10gbethernet

7
推荐指数
1
解决办法
1274
查看次数

Windows Home Server 信息

我一直在纠结是否投资 Windows Home Server (WHS)。虽然优点非常明显:备份、远程访问、低功耗;我没有找到很多关于缺点的信息。此外,我一直无法找到关于 WHS 是否可以与 Windows 媒体扩展器一起使用的明确答案。最后,我不确定该往哪个方向发展:购买还是建造。HP 的 MediaSmart Server似乎获得了很多积极的评价,而这份关于构建 400 美元的绿色 Windows Home Server 的指南似乎很有希望。

network-attached-storage windows-home-server

6
推荐指数
1
解决办法
279
查看次数

Linux: echo 3 > /proc/sys/vm/drop_caches 需要几个小时才能完成

我有一个 Thecus N8900 NAS,它是一个基于 Linux 的文件服务器,通过 NFS 向六个客户端提供文件。由于某些原因,色卡司支持尚未解释,它运行一个脚本,每 60 秒检查一次 /proc/meminfo,如果磁盘缓存超过可用 RAM 的 50%,它们会执行“echo 3 > /proc/sys/vm/drop_caches " 命令来刷新缓存。

撇开这是否有意义的问题不谈,实际的“echo 3 > /proc/sys/vm/drop_caches”命令可能需要几个小时才能完成,这对我来说似乎太长了。

最大的问题是,当这种情况发生时,机器上的负载会激增,磁盘利用率也是如此,这使得所有 NFS 流量都会爬行,直到命令最终完成,此时事情又会再次响应。

NAS 本身有 16 gig 的 RAM、7 个采用 raid6 配置的驱动器(加上一个热备用),根本没有驱动器问题(根据 SMART 测试)。

所以问题是:什么会导致 drop_caches 命令花费这么长时间?

linux network-attached-storage nfs linux-kernel

6
推荐指数
1
解决办法
2944
查看次数