我有一个包含 2Gb 图像的文件夹,子文件夹有几层深。
我只想N
将每个(子)文件夹的文件存档在 tar 文件中。我试图用find
再tail
然后tar
,但无法管理得到它的工作。这是我尝试过的(假设N = 10
):
find . | tail -n 10 | tar -czvf backup.tar.gz
Run Code Online (Sandbox Code Playgroud)
...输出此错误:
Cannot stat: File name too long
Run Code Online (Sandbox Code Playgroud)
这里有什么问题?想一想 - 即使它有效,我认为它只会压缩所有文件夹的前 10 个文件,而不是每个文件夹的 10 个文件。
如何获取N
每个文件夹的文件?(不需要文件顺序)
我已经在 Ubuntu 16 上安装了 docker。现在我无法再连接到我的有线网络:ubuntu 正在使用 docker0 以太网接口连接到网络(wifi 接口仍然有效)
要解决该问题,我必须关闭 docker 守护进程,然后关闭 docker0 接口:
$ sudo link set docker0 down
Run Code Online (Sandbox Code Playgroud)
但是,如果我再次启动 docker 守护进程,它会设置 docker0 接口,并且我会失去本地网络连接。
docker0 接口有什么问题?我该如何解决这个问题?
谢谢 :)
我在 Debian 机器上编写了一个脚本来读取 URL 文件并输出每个 URL 的 HTTP 状态代码:
...
while read url
do
urlstatus=$(curl -H 'Cache-Control: no-cache' -o /dev/null --silent --head --insecure --write-out '%{http_code} ; %{redirect_url}' "$url")
...
done < $1
Run Code Online (Sandbox Code Playgroud)
对于包含 100 个 URL 的文件来说还可以,但是对于包含超过 1000 个 URL 的大文件,我的脚本会变得非常慢!
我尝试过在 SO 上找到的几个“提示”:设置 KeepAlive -H 'Keep-Alive: 500'
,将 GoogleBot 定义为用户代理,--user-agent 'Googlebot/2.1 (+http://www.google.com/bot.html)'
并定义连接超时,--connect-timeout 1
但什么也没有!