系统 Win 7 32 位。我正在使用 WinRAR 提取 .rar 文件,但我认为任何压缩文件都是一样的。我有:
1) SomeSourceCodeFolder.rar -> 提取 -> SomeDestCodeFolder
2) SomeSourceCodeFolder -> 复制 -> SomeDestCodeFolder
第一种方式通常比第二种方式快得多。在我的例子中,复制一个 300mb 的代码文件夹它说 45 分钟(我只等了 5 分钟,没有费心完成它),但是当我尝试用 winRAR 提取物做同样的事情时,它只需要大约 45 秒即可完成.
这是为什么?压缩文件不通过解密+复制到文件系统吗?它不应该总是比单独复制慢吗?
我需要使用千兆位连接将数百 GB 的现场备份从几个 Xen VM 备份到同一网络中专用服务器上的一些可用存储。数据主要是 MySQL 数据——我使用 Percona XtraDB Cluster——使用 Xtrabackup 在服务器上本地备份,所以我想这些数据应该是高度可压缩的。
目前我正在使用带有密码加密的 duplicity 0.6.08b(我没有使用密钥),因为我还将使用 duplicity 创建的备份卷同步到一些异地存储。当前压缩级别为 6,volsize 为 250。备份需要一天以上的时间,这就是我正在寻找推荐的重复设置的原因,该设置将导致快速备份到本地网络共享存储而不会占用太多空间。
任何的想法?
我关注了很多博客,解释了如何启用 iis7 的动态内容压缩。这些似乎都是基于 windows server 2008 的。
我尝试在安装在 Windows 7 pc 上的 IIS7.5 上做同样的事情。并且块是灰色的。这是因为没有安装模块。
如何在 Windows 7 中添加模块
考虑到现代 CPU 的性能,硬件压缩在磁带驱动器上是否仍然有意义?另外,如果我有一些已经在 GZIP 中压缩的数据并且我的驱动器正在启用硬件压缩,我该怎么办?而且,硬件压缩算法是专有的,因此无法读取类似但不相同的磁带驱动器上的磁带吗?谢谢!
rsync如果您需要备份大文件(例如数据库文件),每个系统管理员都知道这是一种方法:由于它使用增量压缩,因此它只会将已从原始文件修改的块覆盖到备份文件中,从而避免了很多开销。
然而,对于某些文件格式,例如gzip和bzip2,修改文件会导致整个块被再次复制,因为它会在修改它的文件结构中引起某种蝴蝶效应,即使只更改几个字节也是如此。
那么,哪些压缩文件格式最rsync友好呢?反过来说,当时间是黄金并且有 10K 的数据必须备份时,还有其他格式必须避免吗?
我最近创建了一个 ZFS 卷来测试它的压缩能力。我正在将它与 ext4 卷并排进行比较。在创建新卷并打开压缩后,sudo zfs set compression=gzip postgres-zfs我将一个 ~3GB 的文件从 ext4 卷复制到 ZFS 文件,但该文件在 ZFS 驱动器上的大小完全相同(我曾经ls -alh看到过这个)。我手动压缩文件以查看压缩应该是什么(我知道有不同的级别,但只是为了大致了解)并且仅使用gzip file文件大小就减少了一半。我的 ZFS 设置也显示压缩已打开:
# zfs get all
NAME PROPERTY VALUE SOURCE
postgres-zfs type filesystem -
postgres-zfs creation Thu Apr 5 17:17 2018 -
postgres-zfs used 1.54G -
postgres-zfs available 143G -
postgres-zfs referenced 1.54G -
postgres-zfs compressratio 1.34x -
postgres-zfs mounted yes -
postgres-zfs quota none default
postgres-zfs reservation none default
postgres-zfs recordsize 128K default
postgres-zfs …Run Code Online (Sandbox Code Playgroud) 我有一个使用 FoxIt PDF Creator 程序从 Word 2007 DOCX 文件创建的 PDF 文件。
文档本身看起来很棒,但生成的 PDF 大约是我看到的其他转换器从同一源文档创建的两倍。
有没有办法压缩或“优化”这个 PDF 文档?
如果没有,您能推荐任何免费软件或开源 PDF 创建者吗?
我发现 IE6(SP2 之前)的一些问题似乎与 http 压缩有关。我想仅为这些用户禁用 http 压缩。有什么建议?
沿东西该行可能会奏效(但为IIS,而不是Apache)。
我们每天轮换和压缩我们的 Apache 日志,但很明显这不够频繁。一个未压缩的日志大约是 6G,这已经接近填满我们的日志分区(是的,我们将来会把它做得更大!)并且每天都需要花费大量的时间和 CPU 来压缩。我们必须为我们的统计处理每天生成一个 gziped 日志。显然,我们可以将日志移动到具有更多空间的分区,但我也希望全天分散压缩开销。
使用 Apache 的rotatelogs,我们可以更频繁地轮换和压缩日志——比如说,每小时——但是我怎样才能将所有每小时压缩的日志连接成当天正在运行的压缩日志,而无需解压以前的日志?我不想解压缩 24 小时的数据并重新压缩它,因为这具有我们当前解决方案的所有缺点。
Gzip 似乎没有提供任何附加或连接选项,但也许我错过了一些明显的东西。这个问题表明直接 shell 连接“有效”,因为可以解压缩存档,但这gzip -l似乎不起作用。
或者,也许这仍然是一种糟糕的做事方式。欢迎其他建议——我们唯一的限制是我们相对较小的日志分区和提供每日压缩日志的需要。
我不得不拆分这个 2.6 GB 的 zip 文件,以便通过慢速上行链路发送它。我这样做了:
split -b 879m BIGFILE.zip
Run Code Online (Sandbox Code Playgroud)
这创建了我上传到远程服务器的 xaa、xab 和 xac。传输完成后,我使用 md5sum 验证了这 3 个部分中的每一个(在我的本地系统和服务器上):
md5sum xaa
md5sum xab
md5sum xab
Run Code Online (Sandbox Code Playgroud)
所有 3 个哈希值都与我系统上的 3 个哈希值相同,因此传输进行得很顺利。现在,在远程系统上,当我这样做时:
cat xa* > BIGFILE.zip
Run Code Online (Sandbox Code Playgroud)
...然后我验证这个 BIGFILE.zip 的哈希值(在两个系统上):
md5sum BIGFILE.zip
Run Code Online (Sandbox Code Playgroud)
......他们两个都匹配。
现在是有趣的部分。当我尝试列出 zip 文件的内容时,出现错误:
unzip -l BIGFILE.zip
Run Code Online (Sandbox Code Playgroud)
我得到:
Archive: BIGFILE.zip
End-of-central-directory signature not found. Either this file is not
a zipfile, or it constitutes one disk of a multi-part archive. In the
latter case the central directory and zipfile comment will be …Run Code Online (Sandbox Code Playgroud) compression ×10
backup ×2
apache-2.2 ×1
duplicity ×1
encryption ×1
gpg ×1
iis-6 ×1
iis-7.5 ×1
linux ×1
log-files ×1
optimization ×1
pdf ×1
rar ×1
rsync ×1
tape ×1
windows ×1
zfs ×1