我一直在观察 Linux 内核会定期更新。我相信内核为操作系统提供了一个与不同硬件和软件交互的基础层。它是开源的,在早期,内核快速发展似乎是合乎逻辑的。但是现在,所有内核都非常好,我们仍然看到内核不断更新。如果我们看看 OS X,基本系统不会经常更新,即使两者都具有相当的稳定性和功能。
您观察到更多定期内核更新的部分原因是内核是一大堆东西,需要与(在 Ubuntu 情况下,apt)软件包系统(或者您的系统将无法启动!)
虽然严重到足以推送更新的各种软件错误和安全漏洞只会影响那些安装了相应软件的人,但每个使用 GNU/Linux 的人都将安装 Linux 内核。因此,虽然各种应用程序获得了各种更新,但每个人都获得了内核更新。因此,每个人都会获得许多内核更新,但相比之下,其他软件更新却很少——这仅仅是因为他的系统只安装了特定的软件。
某些 RAID 驱动程序存在严重缺陷,偶尔会导致重要数据无法读取?Ubuntu 必须为可能受影响的任何人发布更新= 每个人都使用内核版本,包括错误 = 可能每个人都使用受支持的 Ubuntu 版本。
nginx web 服务器的 MP4 模块中发现了一个可怕的缺陷,可能允许第三方接管流媒体服务器?大多数 Ubuntu 用户没有得到更新,甚至大多数使用 nginx 的用户也没有得到更新,因为他们没有安装那个特定的模块,只有包含该模块的包需要接收安全更新。
发现了 Windows 中的一个可怕缺陷,它使使用 Windows 系统证书存储的用户应用程序接受恶意证书,从而泄露一些本来要加密的流量。由于补丁日是上周,应用程序供应商将在下个月之前解决该错误。然后为所有收集的更新提供单个内核更新,这也会造成更新较少的一些错觉。
在 Windows 上的用户应用程序中发现了一个可怕的缺陷。由于 Windows 没有包管理器,所以没有人注意到. 几个月后,当用户意识到自己是大型僵尸网络的一部分时,他重新安装了他的机器。
经验法则:如果您不需要功能更新,请使用长期支持 (LTS) 更新。发布到这些版本的所有更新在某种程度上都是重要的错误和/或安全修复。
关于 Linux 发行版和 Ubuntu 更新频率的另一个注意事项:从安全角度来看,Microsoft 和 Apple 部署更新的方式很糟糕。并不是说他们制作了更好的软件并且需要更少的更新,而是他们从经济角度部署更新,这意味着他们通常不会这样做,即使某些用户(但不是经济相关的份额)受到坏错误的影响。
在 Linux 上,您会看到安全漏洞在已知数小时内得到修复。在某些专有系统上,维护公司要求安全工程师在 3个月内(例如 Microsoft)向公众隐瞒有关缺陷的信息,并且仅负责任地发布这些信息,直到按照通常的周期发布修复程序,例如每月一次(例如 Microsoft)。
想想以精心计划但缓慢的方式修复安全漏洞的含义与 Linux 的方式相比:尽最大努力尽可能快。您会理解为什么许多管理员更喜欢开源和 Linux 方法,尽管更新频率和所有潜在问题都随之而来。
TL;DR:快速和频繁的更新是一件好事,只要它们的安装是不间断的并且在自动模式下很少导致失败。
注意:内核更新将来会变得不那么麻烦。通过 apt 处理安装和删除旧版本的架构现在正在改进,各种 Linux 发行版也在关注和/或探索将较小的修复程序部署为可应用于或多或少“运行”的实时补丁的方法系统,而您无需太在意。
归档时间: |
|
查看次数: |
5049 次 |
最近记录: |