在我的职业生涯中,我遇到了很多电子邮件囤积者......
我正在管理一个 100 个用户的环境,其中用户以前拥有 100mb 配额和一个基本的 Cyrus IMAP/Postfix 解决方案。这导致了大量本地存储的邮件以及数据保留和PC 故障后丢失邮件的相关问题。
我立即使用MailArchiva转向 Exchange 2010(用于发现/存档)并且在这个设置中已经嗡嗡作响了将近一年。出于合规目的,所有入站和出站都将存档和保留。我最初为每个用户设置了 3GB 的邮箱限制。少数用户需要额外的空间来放置他们的电子邮件工作集并且能够证明它是合理的,所以我做了一些例外。但是,我有一个特别糟糕(但很重要)的用户,其收件箱目前有 22,000 项,其中 14,000 项未读。这可能不是消息的数量,而是电子邮件的性质;大量报告、报表和大型 PDF 附件。这也是 Blackberry 用户,所以我怀疑他们根据主题有选择地阅读邮件。用户第一次达到了 3GB 的限制,并且不愿意修剪邮箱。我照顾了他们的 3,000 个已删除项目以保持邮件畅通无阻,但我对如何教育用户如何组织他们的电子邮件感到茫然。我可以制定严格的政策并成为一个硬汉,或者我可以和用户坐在一起帮助分类和清除邮件。无论哪种方式,它都没有解决如何帮助教育的真正问题。
这里有没有人有任何关于如何处理这种情况的提示?我想要一些示例指南。如果您在公司中使用政策,哪些类型的政策有助于控制人员?
我发现人们使用邮件的方式不同,但强迫他们采用特定的组织方式是一项挑战。我什至可能不是最好的例子,但我也知道该保留什么和删除什么。
更新- 第一场战斗已经结束,因为我已经能够通过一些合理的修剪将用户保持在 Exchange 邮箱限制之下。然而,我去重建用户的计算机并发现了一个 17GB 的本地 PST 文件,其中包含超过 6,500 个子文件夹!用户一直在将消息复制(而不是移动)到一系列子文件夹中;有时将单个消息复制/归档到多个文件夹中。下划线 (_) 和前缀 (az) 用于控制文件中文件夹的显示顺序!用户还一直在对出站电子邮件进行抄送,以便将邮件的收件箱记录归档到本地 PST 的子文件夹之一。这是对技术的绝对滥用,是组织公司数据的可怕方式。我把它交给业主来解决这个问题,因为它现在是公司的责任。
我正在寻找一个很好的解决方案来解决没有 vCenter 的 VMware ESXi 环境问题。
在单个 ESXi 主机上将虚拟机从一个数据存储移动到另一个数据存储,同时保持 VMDK 精简配置的最佳方法是什么?
这是一个独立的服务器,扩展了另一个驱动器阵列/数据存储。我想将旧数组中包含的数据移动到新数组中。
编辑:目标数据存储大小实际上小于源。我没有足够的空间来复制厚文件。
我需要为大约 10 GB 的数据设置一个内存存储系统,其中包含许多 100 kb 的单个文件(图像)。将会有大量的读取和相当周期性的写入(添加新文件,删除一些旧文件)。
现在,我知道tmpfs 的行为就像一个常规文件系统,例如,您可以使用df检查空闲/已用空间,这是一个很好的功能。但是,我感兴趣的是ramfs是否会在 IO 操作的速度方面提供一些优势。我知道在使用ramfs时我无法控制消耗的内存大小,并且如果它完全消耗可用 RAM,我的系统可能会挂起,但这在这种情况下不会成为问题。
总而言之,我感兴趣:
- 性能方面,哪个更快:ramfs或tmpfs(可能是为什么)?
- tmpfs 什么时候使用交换空间?它是否将已保存的数据移动到交换(为当前正在运行的其他程序释放 RAM)或仅在那时没有可用 RAM 时才移动新数据?
我是否可以使用安装在服务器中的单个Fusion-io卡可靠地运行,或者我是否需要在软件 RAID 设置中部署两张卡?
在审查他们的营销材料时,Fusion-io 对这个主题不是很清楚(几乎是误导)考虑到卡的成本,我很好奇其他工程师如何在实际场景中部署它们。
我计划将HP 品牌的 Fusion-io ioDrive2 1.2TB 卡用于在 Linux 上运行的专有独立数据库解决方案。这是一个单一的服务器设置,没有真正的高可用性选项。还有是,用10分钟的异步复制RPO该反射镜事务日志到第二物理服务器。
传统上,我会为此应用程序指定具有顶级 CPU 步进的高端HP ProLiant服务器。我需要使用 SSD,而且我能够以比企业 SAS SSD 更低的价格获得所需容量的 Fusion-io。
编辑:我刚刚阅读了戴尔的Fusion-io 可靠性白皮书,外卖似乎是“Fusion-io 卡有很多内部冗余......不要担心 RAID!!” .
我有一台CentOS 6使用PERC H710Raid 5 设置的 Raid 控制器卡运行的戴尔服务器,我想监控 Raid 控制器背后的硬盘故障/工作状态。
然后我应该能够使用 bash 脚本来监视硬盘状态并在出现问题时发送警报电子邮件。
CentOS/Red Hat/Linux的LSI MegaRAID SAS命令工具(About LSI MegaRAID SAS Linux Tools)不支持 PERC H710 和smartctl也不支持。
根据戴尔网站,CentOS此服务器不支持 ( NX3200 PowerVault) 并且我无法下载任何 linux 程序来监控硬盘。
[root@server ~]# lspci | grep RAID
03:00.0 RAID bus controller: LSI Logic / Symbios Logic MegaRAID SAS 2208 [Thunderbolt] (rev 05)
[root@server ~]# smartctl -a /dev/sda
smartctl 5.43 2012-06-30 r3573 [x86_64-linux-2.6.32-431.el6.x86_64] (local build)
Copyright (C) 2002-12 …Run Code Online (Sandbox Code Playgroud) 我进行了搜索,但没有找到任何解决有关修补和系统更新问题的方法。我有指导方针说服务器需要有必要的补丁。如果我有一个 VM 主机,那么它是否是一个额外的层来修补和更新 - 即使使用裸机管理程序?与拥有金属服务器相反?(即根据我的指导方针进行更多的工作、测试和文档)。
类型 1/裸机管理程序多久更新一次?那有关系吗?它是一个额外的软件层这一事实是否会引入更多的复杂性和风险(安全性和可靠性)?(例如,99% 无错误软件 x 99% 无错误软件 = 98% 无错误系统)?
(我的实践经验是使用 VMWare 工作站和服务器,以及 VirtualBox。)
这是一个关于为数据中心选择网络交换机的规范问题
在购买将进入数据中心机架顶部的网络交换机时,我应该寻找哪些具体的东西?
即,是什么让需要年度维护的 3,000 美元 Cisco 交换机比具有终身保修的 300 美元 Netgear 智能交换机更明智?
我想知道是否有人在 HP (DL380p) Gen8 服务器中使用 Intel DC3700 SSD(或类似产品)有任何具体经验?
我正在升级一组使用直连存储的数据库服务器。通常,我们在服务器配置中使用 HP 品牌的所有东西,除了一些带有 SSD 的台式机(所有这些都完美无缺)之外,我还没有使用过 SSD——当然不在服务器中。
我们要升级的服务器在 Windows 上运行 SQL Server (2005)。我们正在迁移到 SQL 2012。当前的机器在 DL370 G6 上托管一个 200GB 的数据库,在 RAID 1+0 中配置了 72GB 15K SFF 驱动器,如下所示:OS(2 个轴)、tempdb(4 个轴)、t-logs(8 个轴) )、数据(20 个主轴)。性能不是问题(CPU 负载通常为 20%/峰值 30%,磁盘队列通常为 1)。数据卷磁盘在 P800 上的 MSA50 中运行 - 因此最高可能有 5K IOPS。硬件已接近 4 年,因此是时候进行更新了。
数据使用情况,由单个硬盘报告,显示自部署在数据卷上以来的写入量 < 100TB;< 10TB 写入事务日志卷;和 ~ 1TB 在 tempdb 上。
这就是用例。现在考虑一个新的、相同的磁盘子系统。每台服务器的运行成本约为 1.5 万美元(34 个 15K 硬盘 @ 250 美元 + 2 个 D2700 架 + 用于外部存储的智能阵列 P421)。 …
我熟悉 BBWC(电池支持的写入缓存)的用途 - 并且以前在我的服务器中使用过它们,即使 UPS 良好。显然存在它不提供保护的故障。我很想知道它在实践中是否真的提供了任何真正的好处。
(注意,我特别在寻找有 BBWC 和崩溃/失败的人的回应,以及 BBWC 是否有助于恢复)
更新
在收到这里的反馈后,我越来越怀疑 BBWC 是否会增加任何价值。
为了对数据完整性有任何信心,文件系统必须知道数据何时被提交到非易失性存储(不一定是磁盘 - 我会回到这一点)。值得注意的是,很多磁盘都在数据何时提交到磁盘上撒谎 ( http://brad.livejournal.com/2116715.html )。虽然假设禁用磁盘缓存可能会使磁盘更诚实似乎是合理的,但仍然不能保证情况确实如此。
由于 BBWC 中的缓冲区通常很大,屏障可能需要将更多数据提交到磁盘,因此会导致写入延迟:一般建议是在使用非易失性回写缓存时禁用屏障(并禁用 on-磁盘缓存)。然而,这似乎会破坏写操作的完整性——仅仅因为在非易失性存储中维护更多数据并不意味着它会更加一致。事实上,如果逻辑事务之间没有划分,那么确保一致性的机会似乎比其他方式少。
如果 BBWC 在数据进入它的非易失性存储(而不是提交到磁盘)时确认障碍,那么它似乎满足了数据完整性要求而不会造成性能损失 - 这意味着仍应启用障碍。然而,由于这些设备通常表现出与将数据刷新到物理设备(使用屏障显着慢)以及禁用屏障的广泛建议一致的行为,因此它们不能以这种方式运行。为什么不?
如果操作系统中的 I/O 被建模为一系列流,那么当写缓存由操作系统管理时,有一些范围可以最小化写屏障的阻塞效应 - 因为在这个级别只有逻辑事务(单个流) 需要提交。另一方面,不知道哪些数据位构成事务的 BBWC 必须将其整个缓存提交到磁盘。内核/文件系统是否在实践中真正实现了这一点,需要付出比我目前愿意投入的更多的努力。
磁盘组合告诉 fibs 已提交的内容和突然断电无疑会导致损坏 - 并且日志或日志结构的文件系统在中断后不会执行完整的 fsck 不太可能检测到损坏,更不用说试图修复它。
就故障模式而言,根据我的经验,大多数突然停电是由于市电断电(使用 UPS 和管理关机可轻松缓解)。人们从机架中拉出错误的电缆意味着数据中心卫生(标签和电缆管理)不佳。UPS 无法防止某些类型的突然断电事件 - PSU 或 VRM 中的故障 带有屏障的 BBWC 可以在发生故障时提供数据完整性,但此类事件有多常见?从这里缺乏回应来看,这是非常罕见的。
当然,在堆栈中提高容错能力比 BBWC 的成本要高得多——但是,将服务器实现为集群还有许多其他性能和可用性方面的好处。
减轻突然断电影响的另一种方法是实施 SAN - AoE 使这成为一个实用的提议(我在 iSCSI 中并没有真正看到这一点),但同样存在更高的成本。
有没有一种很好的方法可以从 Linux 主机监控和/或控制 Nehalem 处理器上的 Intel Turbo Boost 技术?我正在寻找运行股票或实时 MRG 内核的 RHEL/CentOS 5.5 主机。
这里有没有人找到在您的环境中利用 Turbo Boost 的好方法?
storage ×3
hardware ×2
linux ×2
raid ×2
ssd ×2
bbwc ×1
centos ×1
database ×1
datacenter ×1
datastore ×1
dell-perc ×1
email ×1
filesystems ×1
fusionio ×1
hp ×1
hp-proliant ×1
intel ×1
networking ×1
performance ×1
ramdisk ×1
security ×1
tmpfs ×1
vmware-esxi ×1