Kes*_*shi 6 hadoop hadoop-yarn apache-spark
就空间利用率而言,Spark用户缓存似乎增长得非常快.我有一个HDP 2.3.4设置,配置为使用本地dirs,这是本地的单个从节点.
在实例上设置为本地使用的从属节点磁盘分区很快就被填满了.我将local-dirs位置移动到非DFS空间分区中的HDFS内.这有助于显着扩展我的应用程序,但似乎它只是在我的集群处理超过100M事件时将问题转移到更晚的阶段.在这个阶段,HDFS利用率接近90%,大部分利用率来自HDFS的非DFS部分(假设没有复制?).这会导致所有纱线节点管理器停止并且作业失败.
问题:
归档时间: |
|
查看次数: |
392 次 |
最近记录: |