我在 HDFS 数据目录上有 300000 多个文件。
当我执行 hadoop fs -ls 时,出现内存不足错误,提示已超出 GC 限制。每个集群节点都有 256 GB 的 RAM。我如何解决它?
您可以通过指定“HADOOP_CLIENT_OPTS”为 hdfs 命令提供更多内存
HADOOP_CLIENT_OPTS="-Xmx4g" hdfs dfs -ls /
Run Code Online (Sandbox Code Playgroud)
在这里找到:http : //lecluster.delaurent.com/hdfs-ls-and-out-of-memory-gc-overhead-limit/
这为我解决了这个问题,我在一个目录中有超过 40 万个文件,需要删除大部分但不是全部。
| 归档时间: |
|
| 查看次数: |
3304 次 |
| 最近记录: |