标签: bucket

使用 laravel 上传到 s3 存储桶文件夹

我目前正在使用这个软件包进行亚马逊文件上传,它可以工作,唯一的问题是我不知道如何在我选择的存储桶中指定文件夹。

Package Used - "aws/aws-sdk-php": "~3.0",
Run Code Online (Sandbox Code Playgroud)

这就是我目前上传到存储桶的方式

$imageName = time().'.'.$request->image->getClientOriginalExtension();
$image = $request->file('image');
$t = Storage::disk('s3')->put($imageName, file_get_contents($image), 'public');
$imageName = Storage::disk('s3')->url($imageName);
Run Code Online (Sandbox Code Playgroud)

amazon-s3 bucket amazon-web-services laravel

3
推荐指数
1
解决办法
6678
查看次数

为 Google Cloud Storage 中存储桶中的所有对象设置元数据

为了使用 GCP CDN,我需要为存储桶中的所有对象设置元数据(缓存控制)。我们有命令去做吗?

storage bucket google-cloud-platform

3
推荐指数
1
解决办法
3263
查看次数

GCP 对存储桶的只写访问 (GCS)

我们正在尝试为不同的源系统创建不同的存储桶,并只允许它们访问特定存储桶上的转储数据。他们不应该具有读取权限,即他们不应该能够看到桶内的帽子。是否可行,如果可行,如何实现?

bucket google-cloud-platform

3
推荐指数
1
解决办法
3277
查看次数

使用 Google Cloud 读取和写入 pickle

我想读取存储在 Google Cloud Bucket 内的文件夹中的现有 pickle(包含字典)。然后执行一些功能后更新pickle,相当于覆盖pickle。

传统上我会做类似的事情:

import pickle
# Read pickle:
pickle_in = open('dictionary.pickle','rb')
my_dictionary = pickle.load(pickle_in)
my_dictionary 

# MODIFY DICTIONARY BY, FOR EXAMPLE, ADDING NEW REGISTERS

# Overwrite pickle:
pickle_out = open('dictionary.pickle','wb') 
pickle.dump(my_modified_dictionary,pickle_out)
pickle_out.close()
Run Code Online (Sandbox Code Playgroud)

现在我需要在 Google Cloud 上做类似的事情。所以我需要更改文件的路径并使用cloudstorage.open():

import pickle
my_path = '/bucket_name/pickle_folder/my_dictionary.pickle'

# Read pickle:
pickle_in = cloudstorage.open(path,'r')
my_dictionary = pickle.load(pickle_in)
my_dictionary 

# MODIFY DICTIONARY BY, FOR EXAMPLE, ADDING NEW REGISTERS

# Overwrite pickle:
pickle_out = cloudstorage.open(path,'w') 
pickle.dump(my_modified_dictionary,pickle_out)
pickle_out.close()
Run Code Online (Sandbox Code Playgroud)

这行得通吗?cloudstorage.open()似乎与 open() 等效。但我不确定如果我在转储pickle时指定路径实际上会覆盖指定文件夹中的pickle。

python pickle bucket google-cloud-platform google-cloud-functions

3
推荐指数
1
解决办法
1万
查看次数

Boto(Python) - 反向桶列表

有谁知道如何获得反向桶清单.

bucketList = self.bucket.list(PREFIX)
bucketList.reverse()
Run Code Online (Sandbox Code Playgroud)

不起作用.

谢谢,罗恩.

python list amazon-s3 bucket boto

2
推荐指数
1
解决办法
1001
查看次数

Sitecore HOWTO:搜索具有特定值的项目的项目桶

我有一个物品桶里面有超过30 000个物品.我需要的是快速搜索具有特定字段设置为特定值的项目,或者更好的是制作类似SELECT WHERE fieldValue IN(1,2,3,4)语句的内容.有没有现成的解决方案?我在网上搜索过,我发现的唯一一件事是"项目桶和搜索的开发人员指南",但没有代码示例.

search sitecore bucket sitecore7 sitecore7.5

2
推荐指数
2
解决办法
4426
查看次数

列出AWS S3存储桶中的所有对象

我试图找出如何在Swift中列出AWS S3存储桶中的所有对象.我似乎无法在互联网上找到任何信息,但也许我看起来不够努力.如果有人可以推荐我的代码,这将允许我做这将是伟大的.

amazon-s3 bucket amazon-web-services swift

2
推荐指数
2
解决办法
4836
查看次数

如何使用Ruby将文件内容从S3存储桶下载到内存中

我在 Amazon AWS S3 中有一个存储桶,其中有一个名为users.csv.

如何使用 Ruby 将该文件的内容从 S3 存储桶加载到内存中以便解析它?

这是我的代码:

require 'aws-sdk'
s3 = Aws::S3::Resource.new(region: 'us-west-1')
resp = s3.list_objects(bucket: 'bucket-name', max_keys: 1)
resp.contents.each do |object|
    puts #{object.value}
end
Run Code Online (Sandbox Code Playgroud)

当我在 IRB 中尝试这个时,我得到:

struct Aws::S3::Types::Object key="users.csv", last_modified=2017-11-15 19:10:28 UTC, etag="\"9a3d50c07aa4aa6976037ce774294a26\"", size=101, storage_class="STANDARD", owner=struct Aws::S3::Types::Owner display_name="owner-name", id="42093cfa4ccb23a8156cdab8500a41a10bdbf90deebb0ee8a3b340dd1e0c3622"
Run Code Online (Sandbox Code Playgroud)

如何解析 的内容users.csv

ruby amazon-s3 bucket amazon-web-services aws-sdk

2
推荐指数
1
解决办法
5374
查看次数

使用 gridfs-stream 执行 find() 时如何指定 GridFS 存储桶

使用gridfs-stream,查找和获取文件时如何指定bucket名称?

我的问题是在如何指定 GridFS 存储桶的stackoverflow 上找到的以下问题的后续问题

那里的解决方案提供了一个示例,说明如何在调用 createWriteStream 时指定存储桶。根据@vsivsi 提供的代码,我可以使用以下代码中的“root”选项将文件添加到我的自定义存储桶中:

// fyi, req.file has been populated using multer
var gfs = Grid(mongoose.connection.db);
var writeStream = gfs.createWriteStream({
    filename: req.file.originalname,
    mode: 'w',
    content_type: req.file.mimetype,
    root: 'private'
});
Run Code Online (Sandbox Code Playgroud)

这成功地将我的文件添加到 private.files 和 private.chunks。所以现在我想查找并阅读我上传的文件。我的 find() 不使用存储桶,如下所示:

var gfs = Grid(mongoose.connection.db);
gfs.find({
    filename: req.params.filename
}).toArray(function(err, files){ 
     // bunch of processing here... 
});
Run Code Online (Sandbox Code Playgroud)

现在我如何知道要查询哪个存储桶/根?

我假设在调用 createReadStream() 时我将能够使用相同的“root”选项,但首先我需要找到它。有没有办法告诉 gridfs-stream 使用哪个存储桶/根?

javascript bucket mongodb gridfs gridfs-stream

2
推荐指数
1
解决办法
1735
查看次数

googlec-storage-object-creator@project-name.iam.gserviceaccount.com 没有 storage.objects.delete 访问 bucket-x/xxx.jpg

尝试将图像从服务器上传到服务器我得到:

[ { domain: 'global', reason: 'forbidden', message: 'googlec-storage-object-creator@project-name.iam.gserviceaccount.com 没有 storage.objects.delete 访问bucket-mybucket/mypicture 的权限。 jpg.' }],代码:403,

如果图像名称不同,它就可以工作。版本控制已暂停,并且有一个具有该名称的文件,但它已被删除。

我什至删除了存储桶并重新创建了它,问题仍然存在。

如果文件名与“mypicture.jpg”不同,则完全没有错误

有什么帮助吗?谢谢

buckets bucket http-status-code-403 google-cloud-storage google-cloud-platform

2
推荐指数
1
解决办法
1341
查看次数