我的问题类似于这个问题,但有几个不同的限制:
\n
分隔符的词表——每行一个词。文件大小从 2GB 到 10GB 不等。我已经尝试了这两种方法,但它们都因内存不足错误而失败。
sort -u wordlist.lst > wordlist_unique.lst
Run Code Online (Sandbox Code Playgroud)
awk '!seen[$0]++' wordlist.lst > wordlist_unique.lst
awk: (FILENAME=wordlist.lst FNR=43601815) fatal: assoc_lookup: bucket-ahname_str: can't allocate 10 bytes of memory (Cannot allocate memory)
Run Code Online (Sandbox Code Playgroud)
我可以尝试哪些其他方法?