小编fen*_*122的帖子

设置“ hash_bucket_size”参数的原理?

问题1

在中wide_n_deep_tutorial.py,有一个hash_bucket_sizetf.feature_column.categorical_column_with_hash_buckettf.feature_column.crossed_column方法命名的超参数,值是hash_bucket_size=1000

但是为什么要1000?如何设置该参数?

问题2:关于第二个问题crossed_columns,那就是,

crossed_columns = [ tf.feature_column.crossed_column( ["education", "occupation"], hash_bucket_size=1000), tf.feature_column.crossed_column( [age_buckets, "education", "occupation"], hash_bucket_size=1000), tf.feature_column.crossed_column( ["native_country", "occupation"], hash_bucket_size=1000) ]

wide_n_deep_tutorial.py

为什么选择["education", "occupation"][age_buckets, "education", "occupation"]以及["native_country", "occupation"]作为crossed_columns,是有经验的任何规则?

tensorflow

5
推荐指数
2
解决办法
2333
查看次数

如何删除cassandra表的墓碑?

我的 OpsCenter 在 Tombstone 计数性能服务上给我“失败”结果。我看了这篇论文,发现可能是插入NULL值是不经意的。

因此,我尝试使用以下程序解决此问题:

  1. 设置NULL表的列channels,并articles以'。出于检查原因,这两个表没有任何插入。

  2. 设置gc_grace_seconds0使用命令: alter table channels with gc_grace_seconds = 0 alter table articles with gc_grace_seconds = 0

  3. 截断键空间中的bestpractice_resultsOpsCenter

  4. 使用命令重新启动代理和 OpsCenter: service datastax-agent restart service opscenterd restart

但是,当 OpsCenter 运行例行性能检查(每 1 分钟)时,再次出现以下“失败”信息。并且墓碑数量没有变化(即23552和1374)

我有一个问题:

  1. 当两个表没有任何插入操作时,如何删除这些墓碑?我需要repair集群吗?

在此处输入图片说明

OpsCenter 版本:6.0.3 Cassandra 版本:2.1.15.1423 DataStax 企业版:4.8.10

cassandra opscenter

0
推荐指数
2
解决办法
9817
查看次数

标签 统计

cassandra ×1

opscenter ×1

tensorflow ×1