我经常处理非常大的日志文件(> 3 GB)。我注意到这些文件的 less 性能很糟糕。我经常想跳到文件的中间,但是当我告诉 less 向前跳 15 M 行时,它需要几分钟..
我想象的问题是较少需要扫描文件中的 '\n' 个字符,但这需要太长时间。
有没有办法让它只寻求明确的抵消?例如,在文件中寻找字节偏移量 15 亿。这个操作应该快几个数量级。如果 less 不提供这种能力,那么还有其他工具吗?
Sek*_*nre 22
你可以减少像这样计算线的次数 less -n
跳转到一个特定的地方,比如 50%,less -n +50p /some/log这对我来说是一个 1.5GB 的日志文件。
编辑:对于特定的字节偏移量: less -n +500000000P ./blah.log
Less 是一个寻呼机,本质上是面向行的。当您启动时,如果它是一个大文件,它会说“计算行数”,然后您按 ESC 停止它,否则,它会执行行。这就是它的作用。
如果你想直接跳到文件中间并跳过开头,你总是可以从开头寻找;我会做类似的事情tail -c +15000000 /some/log | less。
| 归档时间: |
|
| 查看次数: |
8959 次 |
| 最近记录: |