小编ilt*_*p38的帖子

如何在Python的scikit-learn中访问树深度?

我正在使用scikit-learn来创建一个随机森林.但是,我想找到每棵树的各个深度.这似乎是一个简单的属性,但根据文档,(http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.RandomForestClassifier.html),无法访问它.

如果这不可能,有没有办法从决策树模型访问树深度?

任何帮助,将不胜感激.谢谢.

python decision-tree depth random-forest scikit-learn

20
推荐指数
1
解决办法
8888
查看次数

为什么运行时要构造决策树mnlog(n)?

当m是特征量而n是样本量时,python scikit-learn站点(http://scikit-learn.org/stable/modules/tree.html)指出构造二元决策树的运行时是mnlog(n).

我知道log(n)来自分割后树的平均高度.我知道在每次拆分时,你必须查看每个特征(m)并选择要拆分的最佳特征.我知道这是通过计算该节点(n)处每个样本的"最佳度量"(在我的情况下,基尼杂质)来完成的.但是,要找到最佳分割,这是否意味着您必须查看每种可能的方法来分割每个要素的样本?那不就是2 ^ n-1*m而不仅仅是mn吗?我在想这个错吗?任何建议都会有帮助.谢谢.

algorithm big-o machine-learning time-complexity decision-tree

6
推荐指数
1
解决办法
7241
查看次数