小编Sam*_*ami的帖子

Unix:如何只压缩每个文件夹的第 N 个文件?

我有一个包含 2Gb 图像的文件夹,子文件夹有几层深。

我只想N将每个(子)文件夹的文件存档在 tar 文件中。我试图用findtail然后tar,但无法管理得到它的工作。这是我尝试过的(假设N = 10):

find . | tail -n 10 | tar -czvf backup.tar.gz
Run Code Online (Sandbox Code Playgroud)

...输出此错误:

Cannot stat: File name too long
Run Code Online (Sandbox Code Playgroud)

这里有什么问题?想一想 - 即使它有效,我认为它只会压缩所有文件夹的前 10 个文件,而不是每个文件夹的 10 个文件。

如何获取N每个文件夹的文件?(不需要文件顺序)

tar

7
推荐指数
1
解决办法
2643
查看次数

docker0 网络接口搞砸了我的网络

我已经在 Ubuntu 16 上安装了 docker。现在我无法再连接到我的有线网络:ubuntu 正在使用 docker0 以太网接口连接到网络(wifi 接口仍然有效)

要解决该问题,我必须关闭 docker 守护进程,然后关闭 docker0 接口:

$ sudo link set docker0 down
Run Code Online (Sandbox Code Playgroud)

但是,如果我再次启动 docker 守护进程,它会设置 docker0 接口,并且我会失去本地网络连接。

docker0 接口有什么问题?我该如何解决这个问题?

谢谢 :)

ubuntu ethernet docker network-interface

6
推荐指数
1
解决办法
1万
查看次数

如何加快卷曲速度?

我在 Debian 机器上编写了一个脚本来读取 URL 文件并输出每个 URL 的 HTTP 状态代码:

...
while read url
do
    urlstatus=$(curl -H 'Cache-Control: no-cache' -o /dev/null --silent --head --insecure --write-out '%{http_code} ; %{redirect_url}' "$url")
    ...
done < $1
Run Code Online (Sandbox Code Playgroud)

对于包含 100 个 URL 的文件来说还可以,但是对于包含超过 1000 个 URL 的大文件,我的脚本会变得非常慢!

我尝试过在 SO 上找到的几个“提示”:设置 KeepAlive -H 'Keep-Alive: 500',将 GoogleBot 定义为用户代理,--user-agent 'Googlebot/2.1 (+http://www.google.com/bot.html)'并定义连接超时,--connect-timeout 1但什么也没有!

curl

1
推荐指数
1
解决办法
8186
查看次数

标签 统计

curl ×1

docker ×1

ethernet ×1

network-interface ×1

tar ×1

ubuntu ×1