小编Pie*_*sco的帖子

将大文件(5GB 及以上)从 Google Cloud Storage Bucket 复制到 S3 Bucket

我一直在使用 gsutil 将文件从我的谷歌云存储复制到 s3,没有任何问题。最近,我的流量增加,导致传输大小变大。这导致“文件超出了 gsutil 最大支持的 s2 上传大小。大小大于 5GB 的 S3 对象需要分段上传,而 gsutil 不支持”

有人经历过这个吗?我想使用 s3api 可能会解决这个问题......

你的想法?

amazon-s3

5
推荐指数
0
解决办法
620
查看次数

错误:(gcloud.sql.export.sql)HTTPError 409:操作失败,因为另一个操作已经在进行中

通过 jenkins(备份)运行 sql 导出,我定期收到“错误:(gcloud.sql.export.sql)HTTPError 409:操作失败,因为另一个操作已经在进行中。错误:(gcloud.sql.operations.wait ) 参数 OPERATION [OPERATION ...]:必须指定。

我正在尝试确定在哪里可以看到导致此失败的工作

我试图将 gcloud sql 操作等待 --timeout 扩展到 1600 没有运气

gcloud sql 操作等待 --timeout=1600

google-cloud-sql

3
推荐指数
1
解决办法
3128
查看次数

标签 统计

amazon-s3 ×1

google-cloud-sql ×1