如何在我的文件服务器中有效地保存 Tbs 的 Photoshop 文件?

Ut *_* xD -1 filesystems pictures

我有一个带有 1Tb PSD(photoshop)文件的文件服务器。

我们是一家印刷公司,这个 psd 直接被在线编辑器面板使用。

我正在尝试压缩这些 psd,但从那时起我就无法压缩/解压缩它们,每次在面板中打开它之前都必须对其进行解压缩。

根据我的理解,所有 psd 都必须有一些共同点,(所有 photoshop 文件的基本部分),所以我想知道是否可以以某种方式将这些文件的共同部分提取到一个文件中,从而在一定程度上减少空间需求。

我试过但无法做到,因为文件是二进制文件。这该怎么做?

请注意,我不确定哪个 stackexchange 社区最适合提出此类问题,我对 serverfault 最有信心,但如果有更好的社区解决此问题,请帮助我将这个问题转移到那里。

Eva*_*son 5

您要求的内容有点不清楚,但我认为可以肯定地说您正在寻找某种“魔术”来消除重复数据或压缩 Photoshop (PSD) 数据文件。

不存在这样的魔法。压缩可能会有非常小的增量收益,但没有什么显着的。PSD 文件(即现代版本)已经采用压缩,从而导致高熵密度。你不能只压缩一个已经压缩的文件,然后以某种方式使它更小。(如果你以某种方式弄清楚如何做到这一点,你会变得非常富有......)

如果您的文件足够相似,重复数据删除可能是可能的,但您的文件的组成似乎不太可能足够相似,因此您无法通过这种方式获得任何收益。可能会有类似的标题/元数据块,但我倾向于怀疑它们的大小是否足够。

TL; DR - 你要求的是不存在的comp-sci“魔法”。