Linux bash多线程/处理小型工作

elg*_*noh 4 linux bash shell multithreading multiprocessing

我有一个运行一些数据处理命令10K次的脚本.

foreach f (folderName/input*.txt)
  mycmd $f
end
Run Code Online (Sandbox Code Playgroud)

我已经为每个"mycmd $ f"定时运行时间为0.25秒.通过10K运行,它总计超过1小时.我在16核nehalem上运行它.如果不在剩余的15个核心上运行,那将是一个巨大的浪费.

我已经尝试过睡眠,不知何故,脚本会在3900次迭代时因警告或错误而死亡,见下文.睡眠时间越短,死亡的速度越快.

foreach f (folderName/input*.txt)
  mycmd $f & ; sleep 0.1
end
Run Code Online (Sandbox Code Playgroud)

必须有一个更好的方法.注意:我更喜欢shell脚本解决方案,让我们不要徘徊在C/C++领域.

谢谢

问候

Dav*_*rtz 6

将文件列表传递给

xargs -n 1 -P 16 mycmd
Run Code Online (Sandbox Code Playgroud)

例如:

echo folderName/input*.txt | xargs -n 1 -P 16 mycmd
Run Code Online (Sandbox Code Playgroud)

  • 同时使用`ls`和`xargs`可能会导致问题(例如,如果文件名中有空格):`find folderName -maxdepth 1 -name'input*.txt'-print0 | xargs -0 ...`更安全. (3认同)