我经常想知道为什么对分区驱动器如此热衷,尤其是在 Unixy 操作系统(/usr、/var 等)上。这似乎不是 Windows 安装的常见主题。
似乎分区大大增加了填充一个分区的可能性,而其他分区则有大量可用空间。显然,这可以通过仔细的设计和规划来防止,但事情可能会发生变化。我在机器上多次遇到过这种情况,主要是在其他人设置的机器上,或者通过相关操作系统的默认安装设置。
我听到的另一个论点是它简化了备份。它如何简化备份?我也听说它提高了可靠性。又如何?
我在磁盘存储方面遇到的几乎 100% 的问题都与磁盘的物理故障有关。是否可以争论分区可能会加速硬件故障,因为在将数据从一个分区移动或复制到同一磁盘上的另一个分区时,磁盘会发生颠簸?
我并没有想太多,我只想看到一个古老的管理实践的理由。
我们在周五部署了新的 Linux/Exim/Spamassassin 邮件服务器(在没有管理员的长周末前一天部署总是一个好主意)。在 15 分钟的平均值中,负载一直徘徊在 1.3 左右。
机器反应灵敏,邮件会在合理的时间内送达。我们可以假设这是可以接受的吗?
如何将一定量的负载视为可接受或不可接受?使用了哪些指标?
几天前,我一直在调查 Windows 2003 服务器上发生的一个问题。大约有 15 个应用程序池,在几分钟内,它们都在系统日志中产生了以下错误:
A process serving application pool 'Pool 31x' failed to respond to a ping. The process id was '7144'.
Run Code Online (Sandbox Code Playgroud)
然后池自动重新启动,但在启动期间超时,导致所有站点关闭。
我的问题是:什么会导致所有应用程序池同时出现“ping 超时”,那么为什么它们启动速度会太慢?
每个池中的应用程序都是使用 .NET 1.1 框架的 WCMS。它连接到远程数据库,但在其他方面独立于其他机器。
在 FreeBSD 系统上,大概还有很多其他系统,为 root 保留了一定量的空间,占总容量的 MINFREE%。对于多 TB 的文件系统,默认的 8% 是一个惊人的空间量。这么大的卷可能有不到 1% 的 MINFREE,但当然,它必须是一个整数值。
这会改变吗?现在还有人使用 MINFREE 吗?
无论走到哪里,我都会看到“云计算”这个词。我已经做了阅读维基百科的常规练习,搜索了一下,但很难从谷壳中挑选出小麦。
有人可以为云计算提供一个没有流行语的定义吗?鉴于现在似乎每个科技公司都在使用这个词,这有点困难,可能是错误的。
我正在迁移一个有几千个小站点的 Web 服务器,并且有自己的 DNS。每个站点都有一个“customer.ourcompany.com”形式的主机名,有些站点还有“www.customersdomainname.com”。
当我们进行迁移时,IP 会发生变化,因此我们需要更新所有域的所有 DNS 条目。因为这台机器也是ourcompany.com的权限,所以ns1.ourcompany.com的IP也要改。
这就是问题。对于所有客户端域,我们需要确保任何粘合记录都包含正确的 IP。
注册商是否总是使用胶水记录,即使域在技术上不需要它们?我们迁移了另一个网络服务器一次,我需要登录到注册商的站点 (GoDaddy) 并通过简单地将 ns1 交换为 ns2 来更新每个名称服务器条目,反之亦然。这迫使 GoDaddy 查找名称服务器的新 IP,并将它们存储为胶水记录。我担心不得不再次这样做,但是对于 2000 个域,并非都在同一个注册商处。
想法?
我们正在尝试确定运行 DNS 服务器所需的硬件和带宽,该服务器将成为 5,000 个域的权威。Web 服务器每秒获得几次点击。(这些是小站点,因此是倾斜的数字)。
我们计划为此使用 BIND 或其他一些对 unix 友好的 DNS 服务器守护程序,可能在 Linux 或 FreeBSD 上。我不知道这种类型的 www 负载会产生多少 DNS 查询,或者它会使用多少带宽,或者查询在处理和内存使用方面的成本有多高。
这里有人有使用 DNS 的经验吗?