相关疑难解决方法(0)

以任何方式获取一个巨大的文件(80GB)来加速它?

 grep -i -A 5 -B 5 'db_pd.Clients'  eightygigsfile.sql
Run Code Online (Sandbox Code Playgroud)

这已经在相当强大的Linux服务器上运行了一个小时,否则不会超载.grep的替代方案?关于我的语法有什么可以改进的,(egrep,fgrep更好吗?)

该文件实际上位于与另一台服务器的挂载共享的目录中,但实际的磁盘空间是本地的,所以不应该有任何区别?

grep占用了高达93%的CPU

bash grep

102
推荐指数
3
解决办法
6万
查看次数

快速替代grep -f

file.contain.query.txt

ENST001

ENST002

ENST003
Run Code Online (Sandbox Code Playgroud)

file.to.search.in.txt

ENST001  90

ENST002  80

ENST004  50
Run Code Online (Sandbox Code Playgroud)

因为ENST003在第二个文件中没有条目且ENST004在第一个文件中没有条目,所以预期的输出是:

ENST001 90

ENST002 80
Run Code Online (Sandbox Code Playgroud)

要在特定文件中grep多查询,我们通常执行以下操作:

grep -f file.contain.query <file.to.search.in >output.file
Run Code Online (Sandbox Code Playgroud)

因为我在file.to.search中有10000个查询和几乎100000个原始文件,所以需要很长时间才能完成(比如5个小时).有没有grep -f的快速替代品?

perl awk

10
推荐指数
3
解决办法
3408
查看次数

标签 统计

awk ×1

bash ×1

grep ×1

perl ×1