所以我刚刚下载了适用于 Windows 64bit 的 MySQL,它是211.9MB,但是当我提取它时,它现在是1.05GB。他们是如何做到的呢?他们的存档根本没有损坏也没有损坏。
之前(压缩):

之后:(未压缩):

我简直惊呆了,我觉得这不可能。来自 WinRar 的存档信息:

我正在处理一些非常大的数据包捕获文件(30 个文件中约 150GB),但由于数据包捕获的冗余度非常高,这些文件使用 .zip 文件压缩到原始文件大小的约 7% (14.29x)。
我想知道是否可以通过使用“compression=gzip-9”设置创建 ZFS 分区来“本地”处理这些文件。我创建了分区,复制了数据包捕获,最终结果是压缩率为 20.83% (4.80x)。
我想知道为什么会有这么大的差异。
当我在 Mac OSX 中右键单击一个文件并选择“压缩‘文件名’”时,获得相同结果的等效 bash 或终端命令是什么?
只是gzip -9 /path/to/filename吗?
如果我有大量小文件,由于每个文件的开销,Windows 需要很长时间来复制它们(比如五分钟)。如果我把它们包在一个容器里,它会更快地转移它们(比如三分钟)。
目前我使用 UltraISO。但是在向 ISO 添加许多文件后,创建 ISO 文件本身变得太慢了。
我不想使用 Zip,因为压缩的开销比单独传输文件慢。
如何在不使用任何压缩的情况下将多个文件存储在一个文件中?
正如标题所说,如何从 Linux 控制台进行此转换?
我有很多旧的扫描 PDF,它们占用了太多磁盘空间。
我已经尝试了许多网上可用的 PDF 压缩器。他们都问我对彩色图像使用什么压缩,对单色图像使用什么压缩;但我找不到任何东西可以将所有内容转换为二进制图像。
通过二进制,我的意思是每个像素只能具有 2 个颜色值之一:全黑或全白。我知道我所有的 PDF 都有黑/白文本(甚至没有灰度)。某些工具(windows 或 linux 或 android)可以使用这些知识来实现更好的压缩吗?
我不确定,但 Adobe Acrobat Pro 中的“优化 PDF”工具可能会做我想要的。但是,即使是这样,我也更愿意了解更便宜且更紧凑的应用程序。
我有大约 80 GB 的数据需要复制到外部硬盘驱动器。首先压缩所有文件然后复制会更快吗?或者压缩和解压缩所需的时间是否会比它节省的复制时间更长?
我将重新安装 Windows,因此基本上是文档、图片、视频等。还有一个 Outlook .pst 备份文件。并且有 28,284 个文件。
在开始之前我应该警惕的任何可能会加快进程的指示?
我有一个大约的 .zip 文件。20GB。(20,497,570,063 字节)
我正在尝试解压缩它,但存档实用程序和终端都没有这样做。存档实用程序给出错误 2(没有这样的文件或目录)。
当我执行以下命令时:unzip myfile.zip它只是在某个时候停止,而它说它在启动时有一些额外的字节。
当我zipinfo处理这个文件时,它说的是一样的:
Archive: /Users/USERNAME/Desktop/pictures.zip 20497570063 8664
warning [/Users/USERNAME/Desktop/pictures]: 17179869184 extra bytes at beginning or within zipfile
(attempting to process anyway)
Run Code Online (Sandbox Code Playgroud)
解压完成后,文件夹只有大约 8GB 左右。
你们中有人碰巧知道我如何解决这个问题或从这个 zip 文件中获取所有图片吗?
在远程机器上,我想启动一个命令,它会慢慢产生一个大流(流压缩),同时开始下载该流。我不想首先将流保存在远程文件中,因为生成整个内容需要时间,然后下载它需要时间。我想并行压缩和下载以节省时间。我可以 ssh/scp 到远程机器
但我想拉,而不是推
假设服务器设置正确,现代浏览器能够在下载时自动解压缩 .gzip 文件。.tar.gz 文件也是如此吗?
例如,假设您有一个包含大量资源的 HTML5 游戏。将资产(游戏模型、声音等)压缩到一个 .tar 文件中是有意义的,然后(我假设)再将其压缩到一个 .gzip 文件中。客户端是否需要做任何特殊的事情来解压它们?或者是否有更好的方法来压缩服务器上的资产,使我的问题变得毫无意义?