您在使用 ENCFS 和 SSHFS 进行远程备份方面的经验是什么?
我的主要疑惑是关于长期稳定性。
我意识到由于 NFS 不是块级的,因此不能直接使用 LVM。
但是:有没有办法将多个 NFS导出(例如,来自 3 个服务器)合并到不同服务器上的一个挂载点中?
具体来说,我希望能够在 RHEL 4(或 5,并将组合安装重新导出到我的 RHEL 4 服务器)上执行此操作。
扩展
我挂LVM的原因是我想了一堆出口坐骑(的servera:/mnt/export,serverb:/mnt/export,serverc:/mnt/export所有的等)安装在/mnt/space让自己的/mnt/space这台服务器(上serverx)作为一个大的文件系统。
是的,我知道重新导出通常是一件坏事,但我认为它可能会起作用,如果有办法在较新版本而不是旧版本上实现这一点
从阅读 unionfs 文档来看,我似乎无法通过远程连接使用它 - 我是否误读了它?更准确地说,由于 Union FS 合并了多个分支的内容,但使它们显示为一个,因此似乎不会反过来:
我试图以合并的方式挂载一堆 NFS 点,然后写入它们- 不关心数据的去向,就像LVM 一样。
RHEL 5.x 存在熵生成问题(从内核2.4保留)。遵循此处的指示几乎没有产生任何结果:
如何在没有键盘/鼠标的 2.6 内核 RHEL/Fedora 系统上增加熵池。
随机数生成需要良好的熵源。这会影响通过 SSL 传输的服务等。在 2.6 内核中,系统的熵源是键盘、鼠标和一些 IRQ 中断。linux 上有两个随机数源 - /dev/random 和 /dev/urandom。如果熵位桶中没有任何东西, /dev/random 将阻塞。如果您的系统没有键盘和鼠标,您可以使用 'rngd' 守护程序来执行任务。您可以使用以下命令查看熵值。
Run Code Online (Sandbox Code Playgroud)#cat /proc/sys/kernel/random/entropy_avail现在,使用以下命令启动“rngd”守护程序并监视系统上的熵。
Run Code Online (Sandbox Code Playgroud)#rngd -r /dev/urandom -o /dev/random -f -t 1 #watch -n 1 cat /proc/sys/kernel/random/entropy_avail
此问题还有哪些其他修复程序可用?
由于 RHEL 5 上的熵池较小,当前版本的 Server Automation 中的一个组件存在一个已知问题(在 HP 方面),该问题需要很长时间才能启动。我正在尝试找到一种解决方法,直到/除非它已修复在供应商方面。
如何将一对 http 服务器配置为既侦听端口 80,又侦听同一服务器上的不同接口?
具体来说,我想在一台机器(CentOS 6)上为不同 IP 上的不同应用程序运行 nginx 和 apache。
我相信默认情况下 Apache 绑定到 0.0.0.0,响应所有入站流量的请求。如何实现这个场景?
Docker 的文档中有一篇关于 Docker 安全性的好文章:https : //docs.docker.com/articles/security/
然而,我不太清楚容器中的 root 特权进程如何在主机系统中实际运行,以及我应该如何配置 SELinux 以处理进程“泄漏”到容器外的风险。
例如,我在容器中运行 nginx,当我在容器外执行“ps”时,我可以看到所有 nginx 进程。
根 7281 4078 0 01:36 ? 00:00:00 nginx:主进程 nginx www-data 7309 7281 0 01:36 ? 00:00:00 nginx:工作进程 www-data 7310 7281 0 01:36 ? 00:00:00 nginx:工作进程 www-data 7311 7281 0 01:36 ? 00:00:00 nginx:工作进程 www-data 7312 7281 0 01:36 ? 00:00:00 nginx:工作进程
这并不奇怪,因为这就是 Docker 的工作方式——它不是虚拟化,在虚拟机之外没有任何东西出现。使用 Docker,容器的进程在命名空间和有限权限内的主机操作系统上运行。它们直接与主机内核对话。
在这种情况下,我认为我应该配置 SELinux 来保护 nginx 进程而不是 docker 进程,就像它在没有 docker 的情况下运行一样。那是对的吗?
另外,是否有任何特定的 Docker 配置更适合运行像 nginx 这样的网络服务器?
非代理负载均衡器和代理负载均衡器有什么区别?我正在阅读提供各种不同 LB 的 Google Cloud Platform 的文档。例如,它有 SSL 代理负载均衡器和网络负载均衡器。但是它通过说网络负载均衡器是非代理的来区分两者,而 SSL 负载均衡器,顾名思义,是代理负载均衡器。有什么不同?
我的理解是代理 LB 在 LB 处终止客户端网络流量,然后转发请求。因此,它们实际上充当原始客户端请求的代理。相比之下,网络 LB 等非代理 LB 是通过 LB,因为原始客户端请求到达 LB 之外的网络。这是我的预感,但我想要一个明确的答案。
我熟悉基本RAID级别,并且很想知道在RAID0或 中使用 SSD 设备RAID5是否比将它们添加到大LVM容量中更好。
具体来说,我担心小型服务器机房的热量、声音和功耗,并计划从硬盘转向 SSD。有问题的服务器有 4-6 个SATA-II通道,所以这只是关于如何在切换后从驱动器中获得最高性能,而不用担心添加新控制器或除更换驱动器之外的任何其他激烈类别的东西。
使用RAID0,我意识到我无法从驱动器丢失中恢复 - 但在占主导地位的读取环境中,我相信 SSD 不太可能接近达到其估计的 1000000 小时 MTBF,当然也不会遇到写入周期问题长期以来一直困扰着闪存(但现在似乎已经成为过去)。
由于RAID5我会“丢失”其中一个驱动器以实现奇偶校验,但如果其中任何一个驱动器死机,我只需更换该单元即可恢复。
使用LVM,我正在有效地创建一个软件JBOD- 简单,但如果驱动器死机,它上的任何内容都会像RAID0.
对于这种情况,SF 社区建议的最佳方法是什么?
如何按 unix 中的总进程时间对活动进程进行排序?
随着 ReFS(弹性文件系统)在arstechnica等地方的发布和报道,我很想知道 Linux/Unix 存在哪些技术或技术堆栈以获得类似的结果。
ReFS 旨在从存储空间停止的地方开始。为了保护其内部数据结构、文件系统元数据和(可选)用户数据免受损坏,ReFS 计算并存储数据和元数据的校验和。每条受校验和保护的信息都被送入校验和算法,结果是一个数字,即校验和;在 ReFS 的情况下,校验和是一个 64 位数字。校验和算法的设计使得输入的微小变化会导致结果校验和的巨大变化。
每次 ReFS 读取文件系统元数据(或已选择加入校验和保护的数据)时,它都会计算所读取信息的校验和,并将其与存储的值进行比较。如果两者一致,则数据已被正确读取;如果他们不是,那就没有。
那么 - Linux/Unix 有什么可比的吗?它真的只是适用于 Windows 的ZFS吗?如果不是,它有什么不同?
在 CentOS 或 RHEL 6 上升级内核包时,是否可以在不重启的情况下加载新内核?
我的直觉告诉我它不是,但如果是,它会很方便 - 特别是在编译需要内核模块(例如 VirtualBox)的应用程序时,当“错误”的内核源可用时(例如正在运行的内核是2.6.2-100 但升级后的版本是 2.6.2-152)。