相关疑难解决方法(0)

参数"weight"(DMatrix)如何在梯度提升程序(xgboost)中使用?

在xgboost中,可以weight为a 设置参数DMatrix.这显然是权重列表,其中每个值是相应样本的权重.我找不到有关这些权重在梯度增强程序中如何实际使用的任何信息.他们有关系eta吗?

例如,如果我将weight所有样本eta设置eta为0.3并设置为1,那么设置为0.3和weight1是否相同?

xgboost

14
推荐指数
1
解决办法
1万
查看次数

如何计算xgboost质量?

有人可以解释如何Qualityxgb.model.dt.tree函数中计算xgboost R包中的列吗?

在文档中,它说Quality"是与此特定节点中的拆分相关的增益".

当您运行以下代码时,在此函数的xgboost文档中给出,Quality对于树0的节点0是4000.53,但我计算Gain 为2002.848

    data(agaricus.train, package='xgboost')

    train <- agarics.train

    X = train$data
    y = train$label

    bst <- xgboost(data = train$data, label = train$label, max.depth = 2,
                   eta = 1, nthread = 2, nround = 2,objective = "binary:logistic")

    xgb.model.dt.tree(agaricus.train$data@Dimnames[[2]], model = bst)

    p = rep(0.5,nrow(X))

    L = which(X[,'odor=none']==0)
    R = which(X[,'odor=none']==1)

    pL = p[L]
    pR = p[R]

    yL = y[L]
    yR = y[R]

    GL = sum(pL-yL)
    GR = sum(pR-yR)
    G = …
Run Code Online (Sandbox Code Playgroud)

r xgboost

12
推荐指数
1
解决办法
2111
查看次数

标签 统计

xgboost ×2

r ×1