akh*_*lly 6 amazon-s3 amazon-web-services apache-spark pyspark
假设我有一个 AWS 集群,其中包含 1 个主节点实例、5 个核心节点实例和任务节点,最多可自动扩展至 16 个实例。每个主/任务/核心节点具有以下配置:
Master Node : 16Vcore , 128 GB Memory, 600 SSD GB storage
Each Core Node : 4Vcore,16 GB memory,64 GB EBS storage
Each Task Node : 4Vcore,16 GB memory,50 GB EBS storage
Run Code Online (Sandbox Code Playgroud)
现在,通过上述配置,所有任务节点可用的累积内存为16*16=256 GB ,可用的累积 EBS 存储为50GB*16=800GB。所以这是我的两个疑问(因为我试图完全理解它是如何工作的)
归档时间: |
|
查看次数: |
1117 次 |
最近记录: |