我想将压缩的 mysql 转储传输到 s3。
我试过:
mysqldump -u root -ppassword -all-databases | gzip -9 | s3cmd put s3://bucket/sql/databases.sql.gz
Run Code Online (Sandbox Code Playgroud)
但后来我得到:
ERROR: Not enough paramters for command 'put'
Run Code Online (Sandbox Code Playgroud)
我怎样才能做到这一点(在一行中)?
s3cmd s3://MYBUCKET/FOLDER不起作用。(文件夹为空)
s3cmd s3://MYBUCKET/FILE不起作用。
这两个命令的输出都是“文件文件已成功删除”,但文件仍保留在存储桶中。
使用 S3 Webinterface 删除工作正常。
我正在寻找一种稳定的解决方案来使用rsync. 我必须将整个文件系统(超过 1Tb)同步到 Amazon S3。
我在哪里?
解决方案 1:我使用s3fs. 系统变得不稳定,交通真的很慢。这不是一个解决办法。
解决方案2:使用s3cmd sync命令。一切都以良好的速度进行(至少对于小于 2Gb 的文件夹)。当我尝试同步服务器上的所有文件系统(有一些例外)时,问题就出现了。该过程只是挂起。
任何提示?
我有一些秘密文件,我想限制匿名用户查看/下载。我试图通过运行以下内容将其设为私有:
s3cmd setacl --acl-private s3://bucket/some/path/*.ext
Run Code Online (Sandbox Code Playgroud)
然后我转到 S3 管理控制台,选择文件,然后单击“属性”,我确定所有人都未选中打开/下载权限。
但是复制链接https://s3-us-west-2.amazonaws.com/bucket/some/path/blah.ext,粘贴到一个新的浏览器,它仍然可以打开/下载。
我缺少什么?
我一直在使用s3cmd将我们服务器上的本地文件与 S3 存储桶同步。本地服务器上有超过 200,000 个文件。似乎无法在网站上找到任何说明如何仅上传目标存储桶中不存在的文件的文档?它似乎每次都上传所有文件。
仅同步以下文件的命令是什么:
这是我一直在使用的命令:
> s3cmd put [DIRECTORY] --recursive s3://[BUCKET]/[PATH]/
Run Code Online (Sandbox Code Playgroud)
提前致谢!
如何使用 s3cmd 在不同 aws 账户的 s3 存储桶之间传输数据?
command will be like this: s3cmd rsync s3://acc1_bucket/folder/ s3://acc2_bucket/folder --recursive
Run Code Online (Sandbox Code Playgroud)
那么它如何识别第二个存储桶环境呢?正确的做法是什么?