使用 golang 进行 AWS S3 并行下载

Mad*_*ala 3 amazon-s3 go amazon-web-services aws-sdk

我正在编写一个函数来使用 aws-sdk for go 从 AWS S3 存储桶下载一个大文件 (9GB)。我需要优化它并快速下载文件。

func DownloadFromS3Bucket(bucket, item, path string) {
    os.Setenv("AWS_ACCESS_KEY_ID", constants.AWS_ACCESS_KEY_ID)
    os.Setenv("AWS_SECRET_ACCESS_KEY", constants.AWS_SECRET_ACCESS_KEY)

    file, err := os.Create(filepath.Join(path, item))
    if err != nil {
        fmt.Printf("Error in downloading from file: %v \n", err)
        os.Exit(1)
    }

    defer file.Close()

    sess, _ := session.NewSession(&aws.Config{
        Region: aws.String(constants.AWS_REGION)},
    )

    downloader := s3manager.NewDownloader(sess)

    numBytes, err := downloader.Download(file,
        &s3.GetObjectInput{
            Bucket: aws.String(bucket),
            Key:    aws.String(item),
        })
    if err != nil {
        fmt.Printf("Error in downloading from file: %v \n", err)
        os.Exit(1)
    }

    fmt.Println("Download completed", file.Name(), numBytes, "bytes")
}
Run Code Online (Sandbox Code Playgroud)

有人可以建议扩展此功能的解决方案。

Vor*_*ung 5

尝试将您的 NewDownLoader() 更改为此。请参阅https://docs.aws.amazon.com/sdk-for-go/api/service/s3/s3manager/#NewDownloader

// Create a downloader with the session and custom options
downloader := s3manager.NewDownloader(sess, func(d *s3manager.Downloader) {
     d.PartSize = 64 * 1024 * 1024 // 64MB per part
     d.Concurrency = 4
})
Run Code Online (Sandbox Code Playgroud)

可以用 d 设置的选项列表。在 func 中可以在这里找到 https://docs.aws.amazon.com/sdk-for-go/api/service/s3/s3manager/#Downloader