相关疑难解决方法(0)

最快/最好的方式在S3到EC2之间复制数据?

我有相当多的数据(~30G,分成~100个文件)我想在S3和EC2之间传输:当我启动EC2实例时,我想将数据从S3复制到EC2本地磁盘尽可能快,当我完成处理时,我想将结果复制回S3.

我正在寻找一种能够来回快速/并行复制数据的工具.我有几个被破解的脚本,包括一个做得不错的工作,所以我不是在寻找基本库的指针; 我正在寻找快速可靠的东西.

amazon-s3 amazon-ec2

22
推荐指数
2
解决办法
2万
查看次数

一种将数据从一个 S3 复制到另一个 S3 存储桶的自动方法

将数据从一个 s3 连续复制到另一个 s3 存储桶的最佳方法是什么?我了解 S3 支持事件通知并将其发送到 lambda、SNS 和 SQS,但我不确定可以选择做什么?我应该触发 lambda 函数来接收来自 S3 的记录并将它们复制到另一个 s3 中吗?我应该使用 SNS 还是 SQS 来做到这一点?

amazon-s3 amazon-sqs amazon-web-services amazon-sns

6
推荐指数
1
解决办法
1万
查看次数

AWS Cli 与非 DNS 兼容存储桶同步

有什么方法可以使用 AWS 命令​​行将本地文件夹与包含句点“.”的存储桶同步?

如果我这样做:

aws s3 sync local_folder/ s3://files.domain.com/backup
Run Code Online (Sandbox Code Playgroud)

我收到此错误:

致命错误:名为 files.domain.com 的存储桶与 DNS 不兼容。不能使用虚拟托管式寻址。可以通过在 AWS Config 文件或 botocore.client.Config 对象中删除addressing_style 值或将该值设置为“path”或“auto”来配置寻址样式。

我已经尝试删除或更改addressing_styleAWS 配置中的值,但没有奏效。我不知道如何在 botocore 上进行更改。

AWS 配置

[default]
output = json
region = us-west-1
s3 =
  max_concurrent_requests = 100
  max_queue_size = 10000
  multipart_threshold = 64MB
  multipart_chunksize = 16MB
  use_accelerate_endpoint = true
Run Code Online (Sandbox Code Playgroud)

amazon-s3 amazon-web-services botocore

4
推荐指数
1
解决办法
1361
查看次数