使用Ruby aws-sdk跟踪上传文件到S3的进度

Dae*_*der 8 file-upload ruby-on-rails amazon-s3 progress-bar

首先,我知道有很多问题与SO中的问题相似.在过去的一周里,我读过大多数(如果不是全部的话).但我仍然无法为我做这项工作.

我正在开发一个Ruby on Rails应用程序,允许用户将mp3文件上传到Amazon S3.上传本身运行良好,但进度条将极大地改善网站上的用户体验.

我正在使用aws-sdk gem,这是来自亚马逊的官方宝石.在上传过程中,我在其文档中随处可见回调,但我找不到任何东西.

文件一次一个地上传到S3,因此不需要将其加载到内存中.也不需要多文件上传.

我想我可能需要使用JQuery来完成这项工作,我对此很好.我发现这看起来很有前途:https://github.com/blueimp/jQuery-File-Upload 我甚至试过这里的例子:https://github.com/ncri/s3_uploader_example

但我无法让它对我有用.

aws-sdk的文档还简要描述了带有块的流上传:

  obj.write do |buffer, bytes|
     # writing fewer than the requested number of bytes to the buffer
     # will cause write to stop yielding to the block
  end
Run Code Online (Sandbox Code Playgroud)

但这几乎没有帮助.如何"写入缓冲区"?我尝试了一些直观的选项,这些选项总会导致超时.我怎么能基于缓冲更新浏览器?

有更好或更简单的解决方案吗?

先感谢您.我很感激有关这个问题的任何帮助.

Tre*_*owe 10

将块传递给#write时产生的"缓冲区"对象是StringIO的一个实例.您可以使用#write或#<<写入缓冲区.以下是使用块表单上传文件的示例.

file = File.open('/path/to/file', 'r')

obj = s3.buckets['my-bucket'].objects['object-key']
obj.write(:content_length => file.size) do |buffer, bytes|
  buffer.write(file.read(bytes))
  # you could do some interesting things here to track progress
end

file.close
Run Code Online (Sandbox Code Playgroud)