sam*_*ers 1 java hadoop mapreduce bigdata hdfs
我需要在HDFS上存储大约10TB的大文件.我需要了解的是HDFS将如何存储此文件.比如,群集的复制因子是3,我有一个10节点群集,每个节点上有超过10 TB的磁盘空间,即总群集容量超过100TB.
现在,HDFS随机选择三个节点并将文件存储在这三个节点上.那么这就像听起来一样简单.请确认?
或者HDFS将文件分割 - 比如说每个10T分割1TB,然后将每个分割存储在随机选择的3个节点上.分裂是可能的,如果是,则是启用它的配置方面.如果HDFS必须拆分二进制文件或文本文件 - 它是如何拆分的.只需按字节.
是的,它会拆分文件(默认情况下为128mb块).每个块将存储在3个随机节点上.因此,您将在10个节点上均匀分布30TB的数据.
| 归档时间: |
|
| 查看次数: |
1933 次 |
| 最近记录: |