在xgboost中,可以weight
为a 设置参数DMatrix
.这显然是权重列表,其中每个值是相应样本的权重.我找不到有关这些权重在梯度增强程序中如何实际使用的任何信息.他们有关系eta
吗?
例如,如果我将weight
所有样本eta
设置eta
为0.3并设置为1,那么设置为0.3和weight
1是否相同?
有人可以解释如何Quality
在xgb.model.dt.tree
函数中计算xgboost R包中的列吗?
在文档中,它说Quality
"是与此特定节点中的拆分相关的增益".
当您运行以下代码时,在此函数的xgboost文档中给出,Quality
对于树0的节点0是4000.53,但我计算Gain
为2002.848
data(agaricus.train, package='xgboost')
train <- agarics.train
X = train$data
y = train$label
bst <- xgboost(data = train$data, label = train$label, max.depth = 2,
eta = 1, nthread = 2, nround = 2,objective = "binary:logistic")
xgb.model.dt.tree(agaricus.train$data@Dimnames[[2]], model = bst)
p = rep(0.5,nrow(X))
L = which(X[,'odor=none']==0)
R = which(X[,'odor=none']==1)
pL = p[L]
pR = p[R]
yL = y[L]
yR = y[R]
GL = sum(pL-yL)
GR = sum(pR-yR)
G = …
Run Code Online (Sandbox Code Playgroud)