在Bash中工作时如何处理"Too many files"问题?

Vin*_*vic 6 unix bash shell

我不得不使用包含数十万个文件的目录,进行文本匹配,替换等等.如果我走标准路线,比如说

grep foo *
Run Code Online (Sandbox Code Playgroud)

我收到太多文件错误消息,所以我最终做了

for i in *; do grep foo $i; done
Run Code Online (Sandbox Code Playgroud)

要么

find ../path/ | xargs -I{} grep foo "{}"
Run Code Online (Sandbox Code Playgroud)

但这些并不是最优的(为每个文件创建一个新的grep进程).

这看起来更像是程序可以接收的参数大小的限制,因为for循环中的*可以正常工作.但是,无论如何,处理这个问题的正确方法是什么?

PS:不要告诉我做grep -r,我知道,我正在考虑没有递归选项的工具.

Cha*_*ffy 8

在较新版本的findutils中,find可以完成xargs的工作(包括glomming行为,这样只使用了所需的grep进程):

find ../path -exec grep foo '{}' +
Run Code Online (Sandbox Code Playgroud)

使用+而不是;最后一个参数会触发此行为.


Jes*_*erE 6

如果存在包含空格的文件名的风险,您应该记得使用-print0标志与xargs一起查找-0标志:

find . -print0 | xargs -0 grep -H foo
Run Code Online (Sandbox Code Playgroud)