标签: buckets

删除Amazon S3存储桶?

我一直在通过S3Fox与Amazon S3进行交互,我似乎无法删除我的存储桶.我选择一个桶,点击删除,在弹出窗口中确认删除,然后......没有任何反应.我应该使用另一种工具吗?

buckets amazon-s3

56
推荐指数
7
解决办法
5万
查看次数

在C++ std :: unordered_map中预分配存储区

我正在使用std::unordered_mapfrom gnu ++ 0x来存储大量数据.我想为大量元素预先分配空间,因为我可以限制使用的总空间.

我希望能够做的是致电:

std::unordered_map m;
m.resize(pow(2,x));
Run Code Online (Sandbox Code Playgroud)

其中x是已知的.

std::unordered_map不支持这个.我希望std::unordered_map尽可能使用,因为它最终会成为标准的一部分.

一些其他约束:

需要可靠的O(1)访问和地图的变异.期望的散列和比较函数已经是非标准的并且有些昂贵.O(log n)突变(如同std::map)太昂贵了.

- >昂贵的哈希和比较也使基于摊销的增长方式过于昂贵.每个额外插入都需要来自这些函数的O(n)运算,这导致算法运行时间中的额外二次项,因为指数存储要求需要O(n)增长.

c++ buckets unordered-map

24
推荐指数
2
解决办法
1万
查看次数

如何使用SearchResponse中的elasticSearch java api访问聚合结果?

有没有办法使用java API检索搜索响应中的聚合桶?

{
  "took" : 185,
  "timed_out" : false,
  "_shards" : {
    "total" : 5,
    "successful" : 5,
    "failed" : 0
  },
  "hits" : {
    "total" : 200,
    "max_score" : 1.0,
    "hits" : [...]
  },
  "aggregations" : {
    "agg1" : {
      "buckets" : [...]
    },
    "agg2" : {
      "buckets" : [...]
    }
  }
}
Run Code Online (Sandbox Code Playgroud)

目前,有可能获得聚合但我无法弄清楚如何获得桶.

当前1.0版本的ElasticSearch(v1.0.0.Beta2)仍然是测试版,也许这个功能仍然需要添加,但也没有找到关于这一点的信息.

java buckets elasticsearch

21
推荐指数
2
解决办法
2万
查看次数

列出存储桶时,Ruby Amazon S3 Access被拒绝

Ruby newb在这里.

我获得了亚马逊云数据的访问权.我开始认为访问键是关闭但我可能是错的.有人帮忙!

我有aws文件夹作为插件

>> Version
=> "0.6.3"

>> AWS::S3::Base.establish_connection!(:access_key_id =>'*******', :secret_access_key => '*****')
=> #<AWS::S3::Connection:0x007fd0539bb4c0 @options={:server=>"s3.amazonaws.com", :port=>80, :access_key_id=>"****", :secret_access_key=>"****"}, @access_key_id="****", @secret_access_key="****", @http=#<Net::HTTP s3.amazonaws.com:80 open=false>>

>> AWS::S3::Service.buckets   
=> AWS::S3::AccessDenied: Access Denied

from /Users/PBR/.rbenv/versions/1.9.2-p290/lib/ruby/gems/1.9.1/gems/aws-s3-0.6.3/lib/aws/s3/error.rb:38:in `raise'
from /Users/PBR/.rbenv/versions/1.9.2-p290/lib/ruby/gems/1.9.1/gems/aws-s3-0.6.3/lib/aws/s3/base.rb:72:in `request'
from /Users/PBR/.rbenv/versions/1.9.2-p290/lib/ruby/gems/1.9.1/gems/aws-s3-0.6.3/lib/aws/s3/base.rb:88:in `get'
from /Users/PBR/.rbenv/versions/1.9.2-p290/lib/ruby/gems/1.9.1/gems/aws-s3-0.6.3/lib/aws/s3/service.rb:21:in `buckets'
from /Users/PBR/.rbenv/versions/1.9.2-p290/lib/ruby/gems/1.9.1/gems/aws-s3-0.6.3/lib/aws/s3/extensions.rb:183:in `block in buckets'
from /Users/PBR/.rbenv/versions/1.9.2-p290/lib/ruby/gems/1.9.1/gems/aws-s3-0.6.3/lib/aws/s3/extensions.rb:152:in `expirable_memoize'
from /Users/PBR/.rbenv/versions/1.9.2-p290/lib/ruby/gems/1.9.1/gems/aws-s3-0.6.3/lib/aws/s3/extensions.rb:182:in `buckets'
Run Code Online (Sandbox Code Playgroud)

ruby buckets ruby-on-rails amazon-s3 amazon-web-services

17
推荐指数
2
解决办法
1万
查看次数

使用Rails和Paperclip设置存储桶名称放置域样式(bucket.s3.amazonaws.com)

关于网址选项的Paperclip文档:

您可以选择将存储桶的名称放置为域样式(bucket.s3.amazonaws.com)或路径样式(s3.amazonaws.com/bucket).

看起来像设置实际上将桶的名称放置为域式?我不能强迫回形针生成像bucket.s3.amazonaws.com这样的网址而不是s3.amazonaws.com/bucket.

buckets ruby-on-rails amazon-s3 paperclip

15
推荐指数
2
解决办法
5742
查看次数

Hive - 两个表的高效连接

我正在加入Hive中的两个大表(一个超过10亿行,一个大约是1亿行),如下所示:

create table joinedTable as select t1.id, ... from t1 join t2 ON (t1.id = t2.id);
Run Code Online (Sandbox Code Playgroud)

我以相同的方式对这两个表进行了冲突,将每个表聚为100个桶,但查询仍然需要很长时间.

关于如何提高速度的任何建议?

optimization hive buckets join

15
推荐指数
2
解决办法
3万
查看次数

Elasticsearch通过数组中的字符串对术语进行聚合

如何编写Elasticsearch术语聚合,将整个术语而不是单个标记拆分为多个?例如,我想通过州聚合,但以下将新的,约克,泽西和加利福尼亚作为单独的桶返回,而不是纽约,新泽西和加利福尼亚作为预期的桶:

curl -XPOST "http://localhost:9200/my_index/_search" -d'
{
    "aggs" : {
        "states" : {
            "terms" : { 
                "field" : "states",
                "size": 10
            }
        }
    }
}'
Run Code Online (Sandbox Code Playgroud)

我的用例就像这里描述的那个 https://www.elastic.co/guide/en/elasticsearch/guide/current/aggregations-and-analysis.html 只有一个区别:我的案例中的city字段是一个数组.

示例对象:

{
    "states": ["New York", "New Jersey", "California"]
}
Run Code Online (Sandbox Code Playgroud)

似乎所提出的解决方案(将字段映射为not_analyzed)对数组不起作用.

我的映射:

{
    "properties": {
        "states": {
            "type":"object",
            "fields": {
                "raw": {
                    "type":"object",
                    "index":"not_analyzed"
                }
            }
        }
    }
}
Run Code Online (Sandbox Code Playgroud)

我试图用"字符串"替换"对象",但这也不起作用.

arrays buckets aggregation elasticsearch

15
推荐指数
1
解决办法
1万
查看次数

Python Pandas使用pd.qcut创建新的Bin/Bucket变量

如何在python中使用pd.qut创建新的Bin/Bucket变量?

这对于有经验的用户来说可能看起来很简单,但我对此并不十分清楚,在堆栈溢出/谷歌搜索时出乎意料地不直观.一些彻底的搜索产生了这个(qcut作为新列的分配),但它没有完全回答我的问题,因为它没有采取最后一步并将所有内容放入箱(即1,2,......).

python buckets bins pandas

11
推荐指数
2
解决办法
1万
查看次数

在S3存储桶中复制文件(ruby)

我正在使用gem aws-sdk-ruby并且我想将文件/images/image_a.png复制到/profile.png所有都驻留在同一个桶中.

我怎样才能做到这一点?

ruby buckets amazon-s3 amazon-web-services

8
推荐指数
1
解决办法
1350
查看次数

Hive由多个列聚集

据我所知,当hive表在一列上聚类时,它会执行该bulkted列的哈希函数,然后将该行数据放入其中一个桶中.并且每个桶都有一个文件,即如果有32个桶,则hdfs中有32个文件.

在多个列上进行聚簇是什么意思?例如,假设该表具有CLUSTERED BY(大陆,国家)INTO 32 BUCKETS.

如果有多个列,如何执行散列函数?

将生成多少个文件?这还是32吗?

hadoop hive buckets

8
推荐指数
1
解决办法
7368
查看次数