我正在尝试在R中找到一个用于正则化逻辑回归的包,它可以预测0到1之间的值.虽然我已经尝试过这个lars包,但现在已经尝试了glmnet包.
下面是glmnet包参考手册中的示例代码,我不明白输出.
library(glmnet)
set.seed(1010)
n=1000;p=100
nzc=trunc(p/10)
x=matrix(rnorm(n*p),n,p)
beta=rnorm(nzc)
fx= x[,seq(nzc)] %*% beta
eps=rnorm(n)*5
y=drop(fx+eps)
px=exp(fx)
px=px/(1+px)
ly=rbinom(n=length(px),prob=px,size=1)
set.seed(1011)
cvob2=cv.glmnet(x,ly,family="binomial")
plot(cvob2) # had to add this comment to allow edit
coef(cvob2)
predict(cvob2,newx=x[1:5,], s="lambda.min")
             1
[1,] -1.721438
[2,]  0.914219
[3,]  1.111685
[4,]  1.805725
[5,] -4.200433
我不明白为什么输出不在0-1范围内.
我在这里误解了什么吗?
任何人都可以推荐一个易于使用的包进行正则化逻辑回归吗?
谢谢.
我已经读过glmnet可以在没有正则化的情况下使用,即它可以用作常规glm.我正在撰写一篇论文,并试图避免使用许多不同的软件包,因此使用glmnet进行常规的glm逻辑回归拟合会很方便.谁能帮我?
一个相当简单的,但现在只是变得疯狂。
当应用 dropout 来规范我的神经网络时,应该在哪里应用它?
对于示例,让我们想象 2 个卷积层,然后是 1 个全连接层。“A2”是第二个卷积层的激活。我应该将 dropout 应用于这些激活,还是应该将其应用于以下全连接层的权重?还是真的无所谓?
我的直觉告诉我,正确的做法是在全连接层的权重上应用 dropout,而不是在第二个 conv 层的激活中,但我在很多地方看到了相反的情况。
我见过两个类似的问题,但没有一个有令人满意的答案。
python neural-network regularized conv-neural-network tensorflow
我想在我的代码中使用正则化.我使用slim来创建conv2d,如下所示:
slim.conv2d(input, 256, [1, 1], stride=1,  padding='SAME', scope='conv1')
如何为此添加正则化?我怎样才能用它来规范我的损失呢?
我正在努力理解以下内容:
Scikit-learn 为 Ridge Regression 提供了多输出版本,只需交出一个二维数组 [n_samples, n_targets],但它是如何实现的?
http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.Ridge.html
假设每个目标的每个回归都是独立的是否正确?在这些情况下,我如何调整它以对每个回归使用单独的 alpha 正则化参数?如果我使用 GridSeachCV,我将不得不交出一个可能的正则化参数矩阵,或者这将如何工作?
提前致谢 - 我已经搜索了几个小时,但找不到有关此主题的任何内容。
linear-regression multitargeting regularized scikit-learn grid-search
当我在 Python 中使用 sklearn 进行岭回归时, coef_ 输出给了我一个二维数组。根据文档,它是 (n_targets, n_features)。
我知道特征是我的系数。但是,我不确定目标是什么。这是什么?
python regression linear-regression regularized scikit-learn
regularized ×6
glmnet ×2
python ×2
regression ×2
scikit-learn ×2
tensorflow ×2
glm ×1
grid-search ×1
r ×1
tf-slim ×1