我想用Logistic回归模型预测交叉验证的概率.我知道您可以获得交叉验证分数,但是可以从predict_proba而不是分数返回值吗?
# imports
from sklearn.linear_model import LogisticRegression
from sklearn.cross_validation import (StratifiedKFold, cross_val_score,
train_test_split)
from sklearn import datasets
# setup data
iris = datasets.load_iris()
X = iris.data
y = iris.target
# setup model
cv = StratifiedKFold(y, 10)
logreg = LogisticRegression()
# cross-validation scores
scores = cross_val_score(logreg, X, y, cv=cv)
# predict probabilities
Xtrain, Xtest, ytrain, ytest = train_test_split(X, y)
logreg.fit(Xtrain, ytrain)
proba = logreg.predict_proba(Xtest)
Run Code Online (Sandbox Code Playgroud) 我正在尝试使用逻辑回归模型对一些EEG数据进行分类(这似乎给出了我数据的最佳分类).我的数据来自多通道EEG设置,所以本质上我有一个63 x 116 x 50的矩阵(即通道x时间点x试验次数(有两种试验类型为50),我已将其重新设计为长矢量,每个试验一个.
我想做的是在分类后看看哪些特征在分类试验中最有用.我怎么能这样做,是否有可能测试这些功能的重要性?例如,分类主要由N特征驱动,这些特征是特征x到z.例如,我可以说时间点90-95的通道10对于分类来说是重要的或重要的.
这是可能的,还是我问错了?
任何评论或论文参考都非常感谢.
当我在textmode(即在终端内)的emacs中运行IPython时,我没有得到任何标签完成.而不是给定标签完成它跳跃四个空格.
当我在正常的GUI模式下运行emacs时,有很好的标签完成.
有没有办法解决文本模式?
我正在使用Linux Mint 15,Emacs 24.3和IPython 1.1.0
我是 pandas 新手,我正在尝试从 MultiIndex'ed DataFrame 中提取数据
pandas 是否可以从 MultiIndex 对象中选择一系列值,例如下面的示例 DataFrame 我想从第一级(bar、baz、foo 和 qux)以及“one”和“所有列的第二级中的“2”。那可能吗?
arrays = [np.array(['bar', 'bar', 'bar', 'baz', 'baz', 'baz', 'foo', 'foo', 'foo', 'qux', 'qux','qux']),
np.array(['one', 'two','three','one', 'two', 'three','one', 'two','three', 'one', 'two','three'])]
df = pd.DataFrame(randn(12, 6), index=arrays)
0 1 2 3 4 5
bar one -0.031447 0.084358 -0.045284 -0.073702 -0.566905 -0.541734
two -0.381897 0.422047 -0.527828 0.419984 -0.920186 0.643190
three 0.082314 2.584901 1.149755 -0.741753 0.696301 -0.132365
baz one 0.637182 -0.210955 -0.329989 0.021509 -0.483201 -1.194727
two 3.602497 -0.010458 1.734119 -0.332384 …Run Code Online (Sandbox Code Playgroud)