Gre*_*reg 6 numpy machine-learning entropy derivative xgboost
我想了解如何在xgboost示例脚本中计算logloss函数的梯度和粗糙度.
我已经简化功能采取numpy的阵列,以及产生y_hat和y_true其在脚本中使用的值的样品.
这是一个简化的例子:
import numpy as np
def loglikelihoodloss(y_hat, y_true):
prob = 1.0 / (1.0 + np.exp(-y_hat))
grad = prob - y_true
hess = prob * (1.0 - prob)
return grad, hess
y_hat = np.array([1.80087972, -1.82414818, -1.82414818, 1.80087972, -2.08465433,
-1.82414818, -1.82414818, 1.80087972, -1.82414818, -1.82414818])
y_true = np.array([1., 0., 0., 1., 0., 0., 0., 1., 0., 0.])
loglikelihoodloss(y_hat, y_true)
Run Code Online (Sandbox Code Playgroud)
方程式如何相等?
| 归档时间: |
|
| 查看次数: |
3114 次 |
| 最近记录: |