大规模加载 PB 级数据

sri*_*ran -2 performance hadoop bigdata apache-spark hpcc

我需要在一秒钟内将 PB 级文本数据加载到存储 (RAM/SSD) 中。

下面是解决上述问题的一些问题。

1) 实际上/理论上是否可以在一秒钟内加载 PB 级的数据?2) 为了实现亚秒级快速加载 PB 级数据,最佳设计方法是什么。3)有可用的基准方法吗?

我可以使用任何类型的技术来实现,例如 Hadoop、spark、HPCC 等......

rmu*_*ler 5

“拍字节......在一秒钟之内”。严重地?请查看维基百科 Petabyte:它是 1.000.000 GB!

另请检查维基百科内存带宽。即使是最快的 RAM 也无法处理超过 10 GB/s 的速度(实际上这个值要低得多)。

只是好奇:您的用例是什么?