我在Google云端存储中有1000个文件可以公开,或者通常是目录层次结构.
在Web UI中,我似乎只能一次公开一个.
有没有办法做到这一点.
我经常使用至少有两个帐户的Google云端存储:personal@gmail.com和work@corp.com.我曾经为这两个帐户gsutil config
创建.boto
文件,我已将其重命名为personal.boto
和work.boto
.
cp personal.boto ~/.boto
每当我需要在这些帐户之间切换时,必须记住输入是很累人的.有没有更好的办法?
我在Google App Engine上部署了一个python Web应用程序.
我需要获取存储在Amazon S3上的日志文件并将其加载到Google Cloud Storage中.一旦进入Google云端存储,我可能需要执行一些转换,最终将数据导入BigQuery进行分析.
我尝试使用gsutil作为某种概念证明,因为boto是在gsutil的引擎盖下,我想在我的项目中使用boto.这没用.
我想知道是否有人设法直接在2个云之间传输文件.如果可能的话,我想看一个简单的例子.最后,这个任务必须通过在GAE上执行的代码来完成.
我一直在使用Google API控制台Google Cloud Storage Manager
上的链接来上传我的文件.
这适用于大多数文件:1KB,10KB,1MB,10MB,100MB.但是昨天我无法上传3GB文件.知道什么是错的吗?
将大型文件上传到Google云端存储的最佳方式是什么?
我正在使用Google的Java API来使用Google云端存储(GCS).
我有多个工作线程将对象插入GCS.目前,它们共享一个公共Storage
实例,并使用它来创建Storage.Object.Insert
实例:
synchronized(LOCK)
{
insertObject = mStorage.objects().insert(mBucketName, objectMetadata, mediaContent);
}
Run Code Online (Sandbox Code Playgroud)
后来,他们打电话execute()
的Insert
情况下,将文件上载到GCS.
insertObject.execute();
Run Code Online (Sandbox Code Playgroud)
我的问题是我可以execute()
在不同的线程中同时运行调用吗?该Insert
对象对于该线程是唯一的,但Storage
它创建的对象是在线程之间共享的,所以我担心这可能会导致问题.
提前致谢!
java google-api-java-client google-api-client google-cloud-storage