我有一个 tar (gz, bzip) 文件,想查看它的内容,但不是递归的。
这是:文件中的“第一级”。
我已经知道如何查看内容:
tar -ztf 文件.tar.gz
但它是递归的!!
谢谢!
我有一堆 gzip 压缩的日志文件,我想与 nginx 一起使用。我希望它们以浏览器自动膨胀的方式提供服务。我认为这意味着我需要 nginx 将文件作为 .gz 与文本/纯标题一起发送。这可以在 apache 中完成,例如:
<FilesMatch *.gz>
ForceType text/plain
</FilesMatch>
Run Code Online (Sandbox Code Playgroud) 我一直在尝试在启用了静态 HTML 页面和压缩的站点上的 Windows 2008 R2 上的 IIS 7.5 中创建出站规则。
如果我启用了任何形式的压缩(静态或动态),我会收到此错误:
HTTP Error 500.52 - URL Rewrite Module Error. Outbound rewrite rules cannot
be applied when the content of the HTTP response is encoded ("gzip").
Run Code Online (Sandbox Code Playgroud)
由于会对页面加载性能产生巨大的负面影响,因此关闭压缩并不是一个真正的选择。
我想任何使用出站重写规则的人都会遇到这个错误,因为您总是希望为文本内容启用压缩。
我查看了一些建议以使其正常工作:
和
http://forums.iis.net/p/1165899/1937454.aspx#1937454
但我仍然得到同样的错误。
有没有人让这个工作?如果是这样怎么办?
是否存在一个神奇的 shell 管道,它可以轻松地对一堆 .gz 日志文件进行 grep,而无需将它们提取到某处?
.gz 文件是 Apache 日志,是日志轮换的结果。我想快速检查过去访问某些 URI 的频率。
我真的很感激能帮助理解这种 Apache 行为。
我正在从应用程序/json 中的 iPhone Objective-C 应用程序与 PHP 通信。Gzip 压缩在服务器上启用,并由客户端请求。
从我的.htaccess:
AddOutputFilterByType DEFLATE text/html text/plain text/xml application/x-httpd-php application/json
Run Code Online (Sandbox Code Playgroud)
对于小型请求,Apache 正在设置“Content-Length”标头。例如(这些值在 Objective-C 中从标头输出):
Connection = "Keep-Alive";
"Content-Encoding" = gzip;
"Content-Length" = 185; <-------------
"Content-Type" = "application/json";
Date = "Wed, 22 Sep 2010 12:20:27 GMT";
"Keep-Alive" = "timeout=3, max=149";
Server = Apache;
Vary = "Accept-Encoding";
"X-Powered-By" = "PHP/5.2.13";
"X-Uncompressed-Content-Length" = 217;
Run Code Online (Sandbox Code Playgroud)
X-Uncompressed-Content-Length是我添加的标头,设置为未压缩 JSON 字符串的大小。
如您所见,此请求非常小(217 字节)。
这是来自较大请求(282888 字节)的标头:
Connection = "Keep-Alive";
"Content-Encoding" = gzip;
"Content-Type" = "application/json";
Date = "Wed, …Run Code Online (Sandbox Code Playgroud) 我有一个 100GB 的文件,我想分成 100 个 1GB 的文件(按换行符)
例如
split --bytes=1024M /path/to/input /path/to/output
Run Code Online (Sandbox Code Playgroud)
对于生成的 100 个文件,我想对每个文件应用 gzip/zip。
是否可以使用单个命令?
是否可以使用 GZip 创建 .zip 文件?我一直在谷歌搜索,找不到任何让我相信这是可能的
我使用 rsync 备份服务器,但这些备份非常大,我想压缩它们。有没有办法在 rsync 周围使用某种包装器来压缩备份中的文件,rsync 实时文件中的更改,然后在复制后立即重新 gzip 文件?
即如果 live 上的源文件是foo、bar和baz,则备份有foo.gz、bar.gz和baz.gz。
重申:我想要一端是压缩文件,另一端是未压缩文件。我不想在 rsyncing 之前进行压缩,因为即使使用 --rsyncable,它也会降低 rsync 的效率。我知道 rsync 的 -z 选项。我在备份机器上没有空间来存储所有未压缩的文件。
我目前正在尝试设置 Nginx 来为我所有的静态文件提供服务。由于它们根本不会经常更改,因此我希望使用 gzip_static 模块来允许我对文件的副本进行预 gzip,以节省一些 cpu 时间并允许更好的压缩。
我编译了 Nginx--with-http_gzip_static_module并对其进行了设置,以便它为我的静态文件提供服务,到目前为止没有问题。我想测试并确保静态 gzip 压缩确实有效,所以我制作了两个文件,test.txt以及test.txt.gz. 每个文件的第一行说明它们是否被 gzipped,然后有一个换行符和 256 个随机字符(两个文件之间不同)。
我读过文件的修改时间和它的 gzip 对应文件应该是一样的,我已经尝试了以下两种方法:
touch test.*
touch -r test.txt test.txt.gx
Run Code Online (Sandbox Code Playgroud)
在我的本地机器上,我正在使用 curl 进行测试:
curl $URL/test.txt
Run Code Online (Sandbox Code Playgroud)
这工作正常,我取回了我没有预压缩的版本,但是当我这样做时:
curl -H "Accept-Encoding: gzip" $URL/test.txt | gunzip
Run Code Online (Sandbox Code Playgroud)
我也找回了我没有预压缩的版本。我尝试gzip off在 my 中进行设置nginx.conf,但没有任何区别。我还重新编译了 Nginx,--without-http_gzip_module这似乎也没有什么区别,Nginx仍然动态地对东西进行 gzip。
我对 Nginx 很陌生,但我真的很茫然。
这是输出 ./nginx -V
built by gcc 4.4.6 20110731 (Red Hat 4.4.6-3) (GCC)
configure arguments: --sbin-path=$SOMEPATH/nginx --prefix=$SOMEPATH --user=$ME …Run Code Online (Sandbox Code Playgroud) 好吧,如果有人想扮演上帝并创造奇迹,我很失望。
所以,我的任务是制作一个脚本,找到超过 6 个月的文件,压缩它们然后删除它们。在我制作 tihs 脚本的过程中,我运行了这个:
find / -type f -mtime -400 ! -mtime -180 | xargs gzip blablabla
Run Code Online (Sandbox Code Playgroud)
这给了每个文件一个 .gz 扩展名。现在我一注意到就取消了,但为时已晚。完成命令后,我的 bash 命令都不起作用,因为 $PATH 变量自行清空。在意识到问题出在哪里之前,我尝试了很多东西。
因此,在解压缩所有内容后,我仍然无法启动。在我按照在线说明进行了以下操作之后,我设法进行了 grub 救援:
root (hd0,0)
setup (hd0)
kernel (hd0,0)/boot/vml[...]
initrd (hd0,0)/boot/initrd.im[...]
Run Code Online (Sandbox Code Playgroud)
之后我的 linux 部分启动但给了我以下错误:
Begin : Running /scripts/init-bottom ... mount : mounting /dev on /root/dev failed : No such file or directory
mount: mounting /sys/ on /root/sys failed: No such file or directory
mount: mounting /proc on /root/proc failed : No such file or …Run Code Online (Sandbox Code Playgroud)