在 Amazon EC2 服务器之间复制数百万个文件(数百 GB)的最快方法是什么?

T. *_*nes 3 linux amazon-ec2

我在 Amazon EC2 服务器上运行 Linux。我需要在同一可用区中的两个 EC2 系统之间复制数百万个文件,总计数百 GB。我不需要同步目录,我只需要将一个目录中的所有文件复制到另一台机器上的空目录中。

执行此操作的最快方法是什么?有没有人看过或运行过性能测试?

同步?SCP?我应该先把它们拉上拉链吗?我应该分离它们所在的驱动器并将其重新连接到我要复制到的机器上,然后再复制它们吗?通过 EC2 的私有 IP 传输会加快速度吗?

任何想法将不胜感激。

注意:抱歉,这不清楚,但我正在同一 AWS 可用区中的两个 EC2 系统之间复制数据。

Eri*_*ond 10

如果文件已经在 EBS 卷上(如果您关心它们,为什么不在?):

  1. 创建包含第一个实例上的文件的 EBS 卷的快照。

  2. 从该快照创建 EBS 卷。

  3. 将 EBS 卷附加到第二个实例。

新的 EBS 卷在填充快照中的块时可能会有点慢,但它会立即可用。

替代方案(如果文件不在 EBS 卷上):

  1. 将新的 EBS 卷附加到第一个实例。

  2. 将文件从其他磁盘复制到新的 EBS 卷。

  3. 将 EBS 卷移动到第二个实例。