我一直尝试在 Web 服务器上启用 gzip 压缩,因为它似乎具有非常低的 CPU 成本并且您获得了显着的数据传输减少。
现在我有一个没有启用 gzip 的公共服务器,有时它的 CPU 负载在大流量下相当高(主要是因为某些页面上的复杂 SQL 查询)并且阅读这篇关于启用主题的Microsoft 文章,应该考虑 CPU 负载启用 gzip 时的帐户。
客户端想要减少带宽并加快页面加载时间,但我不确定启用 gzip 会弊大于利,尽管它在其他服务器上运行良好。
根据您的经验,gzip 压缩会对 CPU 负载产生重大影响吗?
编辑:在这种情况下,我们使用的是 IIS6
是否有安装程序(例如 InstallShield、Wise 或任何其他程序)可以让我对加密文件执行压缩(任何格式),前提是我提供了加密文件时使用的密码?
基本上,我有一堆已经加密的文件(它们需要加密),需要在部署之前压缩,因此安装程序包更小,所以也许有一个实用程序或安装程序可以让我压缩 cab 文件或如果我提供密码短语?
我阅读了另一个主题,但它没有回答我需要的问题。
感谢所有在这里尝试提供帮助的伟大人物。
也许我应该在这里更详细地...
我的软件有一个办公文档查看器。它内置于Office中。我的软件带有非常好的 Word 模板,我想保护它免受“复制者”的侵害,这样合法的人就不会受到影响,软件/查看器向用户显示缩略图,当合法用户尝试打开模板时,我正在运行的“服务” " 解密文件并打开它没有问题。
现在我提供的所有 Word Doc 模板都是加密的。它们仍然显示 .doc 文件格式,例如 Template001.doc 您不能在没有查看器的情况下打开它。如果您有查看器,那么您就可以访问所有模板。
由于我的 doc 文件没有压缩,我的安装程序是 500MB 如果它们没有加密,使用 LZMA 的安装是 10MB,你可以在那里看到巨大的差异。
所以我需要对每个 doc 文件进行加密(并将其保留为相同的文件扩展名),并让安装程序使用 LZMA 压缩文件。
现在有什么想法吗?
感谢 DC
我正在使用 mod_deflate 即时压缩我的 .css 和 .js 文件:
<ifmodule mod_deflate.c> AddOutputFilterByType DEFLATE text/text text/html text/plain text/xml text/css application/x-javascript application/javascript </ifmodule>
问题是这会动态压缩文件,在处理大文件时会占用一些系统资源。
所以我想预压缩我的文件,以便直接提供它们以降低服务器负载。我想将它们与其他 css 和 js 文件(如 style.css 和 style.gz)一起存储,然后使用 php 标头检查客户端是否接受 gzip 编码,以决定是否提供 .css 或 .gz 文件。检查这不是问题。问题是如何预压缩文件。
我碰到一些题目是这样,但他们没有为我工作。它看起来很简单,但它给了我 500 内部服务器错误。
是否有任何工具或任何可以完成这项工作的工具?
我想在创建 tar.gz 文件时删除一个文件夹,因为它用于备份并且占用太多空间并且不是必需的
我正在使用以下命令;
tar -cvzf /home/backups/$STAMP-Earth.tar.gz /home/bukkit/
Run Code Online (Sandbox Code Playgroud)
我不想在创建 tar.gz 时包含“/home/bukkit/plugins/dynmap”
任何帮助,将不胜感激。
我正在 RAID6 上创建备份卷,我希望将来将其扩展到 12 个 2TB 磁盘。目前我们有 4 个磁盘在 RAID5 和 4096 分配单元+文件压缩上。一切都很好。
现在我正在创建新卷(今天只是为了测试),我想知道我是否可以在格式化时设置相同的参数,不想在添加第 6 个磁盘后卡住,因为将不支持分配单元或压缩更大的尺寸,我将无法在将新光盘添加到阵列后扩展卷。
感谢所有帮助提前。
由 Hyper-V 2008R2 托管的虚拟机上的 Windows 7,通过“虚拟 SCSI”访问主机的 PERC 6e / MD100 上的磁盘。
可以从命令行使用 Info-ZIP 上的加密选项吗?zip 手册页说:
-e --encrypt 使用在终端上输入的密码加密 zip 存档的内容以响应提示(这不会被回显;如果标准错误不是 tty,zip 将退出并显示错误)。重复密码提示以防止用户输入错误。
有没有办法从无人参与的脚本创建压缩文件?
我们在美国有一个站点,响应时间为 1-3 秒,页面大小平均为 200-400kB,运行良好。当我们让澳大利亚用户通过 VPN 使用系统(访问托管在美国的同一系统)时,通常需要 3-10 秒的响应时间。
一种想法是打开 IIS 6 HTTP 压缩(用于静态和动态)以提高性能。打开此选项是否有助于提高页面加载性能?到什么程度?
我有一些 tar.gz 文件,在 CentOS 系统上总共有很多 GB。大多数 tar.gz 文件实际上很小,但带有图像的文件很大。一个是7.7G,另一个是4G左右,还有一对1G左右。
我已经解压了一次文件,现在我想要所有这些文件的第二个副本。
我认为复制解压缩的文件比重新解压缩它们要快。但是我大约在 10 分钟前开始运行 cp -R 并且到目前为止复制了不到 500M。我确信拆包过程更快。
我对吗?
如果是这样,为什么?解包比简单地复制现有结构更快似乎没有意义。
我确实认为以下命令等效,但它们产生不同的校验和:
tar -cvzf ...并且tar -cvf ...; gzip ...不会产生相同的输出。
sha1sum不同。
会是什么gzip,将完全匹配的命令tar -cvzf的行为吗?
我有两个文件,一个是用 zip 2.3.1 生成的,另一个是用 zip 3.0 生成的。两者都是同一目录的 zip。这是两个文件及其大小:
1.7G from-2.3.1.zip
1.7G from-3.0.zip
Run Code Online (Sandbox Code Playgroud)
我的计划是将我的系统转换为新的 zip,这样我就可以创建更大的 zip 文件,例如最大 3 GB 左右。
但是,我担心的是,当我使用稍旧版本的 unzip 解压缩这些文件时,当我尝试解压缩使用 zip 3.0 创建的 zip 时会出现错误。
$ unzip -t from-2.3.1.zip > /dev/null # NO Errors
$ unzip -t from-3.0.zip > /dev/null
warning [from-3.0.zip]: 76 extra bytes at beginning or within zipfile
(attempting to process anyway)
error [from-3.0.zip]: reported length of central directory is
-76 bytes too long (Atari STZip zipfile? J.H.Holm ZIPSPLIT 1.1
zipfile?). Compensating...
error: expected central file …Run Code Online (Sandbox Code Playgroud) compression ×10
gzip ×3
iis-6 ×2
tar ×2
backup ×1
centos ×1
checksum ×1
copy ×1
cpu-usage ×1
deflate ×1
encryption ×1
installation ×1
linux ×1
ntfs ×1
performance ×1
raid ×1
redhat ×1
windows-7 ×1