问题1:
在中wide_n_deep_tutorial.py,有一个hash_bucket_size为tf.feature_column.categorical_column_with_hash_bucket和tf.feature_column.crossed_column方法命名的超参数,值是hash_bucket_size=1000。
但是为什么要1000?如何设置该参数?
问题2:关于第二个问题crossed_columns,那就是,
crossed_columns = [
tf.feature_column.crossed_column( ["education", "occupation"], hash_bucket_size=1000),
tf.feature_column.crossed_column( [age_buckets, "education", "occupation"], hash_bucket_size=1000),
tf.feature_column.crossed_column( ["native_country", "occupation"], hash_bucket_size=1000) ]
在wide_n_deep_tutorial.py中
为什么选择["education", "occupation"],[age_buckets, "education", "occupation"]以及["native_country", "occupation"]作为crossed_columns,是有经验的任何规则?
我的 OpsCenter 在 Tombstone 计数性能服务上给我“失败”结果。我看了这篇论文,发现可能是插入NULL值是不经意的。
因此,我尝试使用以下程序解决此问题:
设置NULL表的列channels,并articles以'。出于检查原因,这两个表没有任何插入。
设置gc_grace_seconds为0使用命令:
alter table channels with gc_grace_seconds = 0
alter table articles with gc_grace_seconds = 0
截断键空间中的bestpractice_results表OpsCenter。
使用命令重新启动代理和 OpsCenter:
service datastax-agent restart
service opscenterd restart
但是,当 OpsCenter 运行例行性能检查(每 1 分钟)时,再次出现以下“失败”信息。并且墓碑数量没有变化(即23552和1374)
我有一个问题:
repair集群吗?OpsCenter 版本:6.0.3 Cassandra 版本:2.1.15.1423 DataStax 企业版:4.8.10