我试图弄清楚其他人如何实现他们的日志管理系统。
我有 20-30 个 Linux 服务器和一些 Windows 机器(其中大部分是虚拟的)。我们使用大量 Perl 和 Bash 脚本来完成大部分自动化工作,我正在尝试标准化它们的日志记录。
我一直在寻找 log4perl 和 log4sh 来记录脚本,并使用 syslog-ng 来获取集中式日志服务器上的所有日志。我还阅读了 splunk,尽管听起来企业版非常昂贵,而且我可能会超过所有服务器的免费许可限制。
我见过其他工具,如 swatch 和 logcheck,但我不太确定所有这些部分如何组合在一起......任何建议将不胜感激!
我有 1 个源服务器,其中包含我想复制到其他 7 个服务器的大约 30GB 的文件。我目前将文件 SCP 转移到前四台服务器,并在传输完成后将 SCP 转移到最后 3 台服务器。
使用 BitTorrent 将文件一次分发给所有 7 个人会更快吗?每个服务器之间的内部连接已经快速且一致。我知道这可能会减轻源服务器的一些负担,但是分发文件是否需要更长的时间?
我可以从 shell 使用什么好的脚本化客户端?我希望每个人都在 100% 后停止播种。