gar*_*rak 178 python classification machine-learning scikit-learn
如何将训练有素的Naive Bayes分类器保存到磁盘并使用它来预测数据?
我从scikit-learn网站获得以下示例程序:
from sklearn import datasets
iris = datasets.load_iris()
from sklearn.naive_bayes import GaussianNB
gnb = GaussianNB()
y_pred = gnb.fit(iris.data, iris.target).predict(iris.data)
print "Number of mislabeled points : %d" % (iris.target != y_pred).sum()
Run Code Online (Sandbox Code Playgroud)
ogr*_*sel 199
您还可以使用joblib.dump和joblib.load,它比默认的python pickler更有效地处理数值数组.
Joblib包含在scikit-learn中:
>>> from sklearn.externals import joblib
>>> from sklearn.datasets import load_digits
>>> from sklearn.linear_model import SGDClassifier
>>> digits = load_digits()
>>> clf = SGDClassifier().fit(digits.data, digits.target)
>>> clf.score(digits.data, digits.target) # evaluate training error
0.9526989426822482
>>> filename = '/tmp/digits_classifier.joblib.pkl'
>>> _ = joblib.dump(clf, filename, compress=9)
>>> clf2 = joblib.load(filename)
>>> clf2
SGDClassifier(alpha=0.0001, class_weight=None, epsilon=0.1, eta0=0.0,
fit_intercept=True, learning_rate='optimal', loss='hinge', n_iter=5,
n_jobs=1, penalty='l2', power_t=0.5, rho=0.85, seed=0,
shuffle=False, verbose=0, warm_start=False)
>>> clf2.score(digits.data, digits.target)
0.9526989426822482
Run Code Online (Sandbox Code Playgroud)
小智 186
分类器只是可以像其他任何一样进行酸洗和转储的对象.继续你的例子:
import cPickle
# save the classifier
with open('my_dumped_classifier.pkl', 'wb') as fid:
cPickle.dump(gnb, fid)
# load it again
with open('my_dumped_classifier.pkl', 'rb') as fid:
gnb_loaded = cPickle.load(fid)
Run Code Online (Sandbox Code Playgroud)
Sal*_*ali 94
您正在寻找的内容称为sklearn单词中的模型持久性,并在介绍和模型持久性部分中进行了介绍.
因此,您已经初始化了分类器并对其进行了长时间的训练
clf = some.classifier()
clf.fit(X, y)
Run Code Online (Sandbox Code Playgroud)
在此之后,您有两个选择:
1)使用泡菜
import pickle
# now you can save it to a file
with open('filename.pkl', 'wb') as f:
pickle.dump(clf, f)
# and later you can load it
with open('filename.pkl', 'rb') as f:
clf = pickle.load(f)
Run Code Online (Sandbox Code Playgroud)
2)使用Joblib
from sklearn.externals import joblib
# now you can save it to a file
joblib.dump(clf, 'filename.pkl')
# and later you can load it
clf = joblib.load('filename.pkl')
Run Code Online (Sandbox Code Playgroud)
再一次阅读上述链接是有帮助的
Ash*_*Ash 29
在许多情况下,特别是文本分类仅仅存储分类器是不够的,但您还需要存储矢量化器,以便将来可以对输入进行矢量化.
import pickle
with open('model.pkl', 'wb') as fout:
pickle.dump((vectorizer, clf), fout)
Run Code Online (Sandbox Code Playgroud)
未来的用例:
with open('model.pkl', 'rb') as fin:
vectorizer, clf = pickle.load(fin)
X_new = vectorizer.transform(new_samples)
X_new_preds = clf.predict(X_new)
Run Code Online (Sandbox Code Playgroud)
在转储矢量化器之前,可以通过以下方式删除vectorizer的stop_words_属性:
vectorizer.stop_words_ = None
Run Code Online (Sandbox Code Playgroud)
使倾销更有效率.此外,如果您的分类器参数是稀疏的(如在大多数文本分类示例中),您可以将参数从密集转换为稀疏,这将在内存消耗,加载和转储方面产生巨大差异.通过以下方式稀疏模型:
clf.sparsify()
Run Code Online (Sandbox Code Playgroud)
这将自动适用于SGDClassifier,但如果您知道您的模型是稀疏的(clf.coef_中有很多零),那么您可以通过以下方式手动将clf.coef_转换为csr scipy稀疏矩阵:
clf.coef_ = scipy.sparse.csr_matrix(clf.coef_)
Run Code Online (Sandbox Code Playgroud)
然后你可以更有效地存储它.
sklearn
estimators 实现了一些方法,使您可以轻松地保存估计器的相关训练属性。一些估算器__getstate__
自己实现方法,但其他估算器,例如GMM
只使用简单地保存对象内部字典的基本实现:
def __getstate__(self):
try:
state = super(BaseEstimator, self).__getstate__()
except AttributeError:
state = self.__dict__.copy()
if type(self).__module__.startswith('sklearn.'):
return dict(state.items(), _sklearn_version=__version__)
else:
return state
Run Code Online (Sandbox Code Playgroud)
将模型保存到光盘的推荐方法是使用pickle
模块:
from sklearn import datasets
from sklearn.svm import SVC
iris = datasets.load_iris()
X = iris.data[:100, :2]
y = iris.target[:100]
model = SVC()
model.fit(X,y)
import pickle
with open('mymodel','wb') as f:
pickle.dump(model,f)
Run Code Online (Sandbox Code Playgroud)
但是,您应该保存额外的数据,以便将来可以重新训练您的模型,否则会遭受可怕的后果(例如被锁定在旧版本的 sklearn 中)。
从文档:
为了使用未来版本的 scikit-learn 重建类似的模型,应该在腌制模型中保存额外的元数据:
训练数据,例如对不可变快照的引用
用于生成模型的python源代码
scikit-learn 的版本及其依赖项
在训练数据上获得的交叉验证分数
对于依赖于tree.pyx
用 Cython 编写的模块(例如IsolationForest
)的Ensemble 估计器尤其如此,因为它创建了与实现的耦合,这不能保证在 sklearn 的版本之间是稳定的。它在过去看到了向后不兼容的变化。
如果您的模型变得非常大并且加载变得麻烦,您还可以使用更高效的joblib
. 从文档:
在 scikit 的特定情况下,使用 joblib 替换
pickle
(joblib.dump
&joblib.load
)可能更有趣,这在内部携带大型 numpy 数组的对象上更有效,就像拟合 scikit-learn 估计器的情况一样,但只能pickle到磁盘而不是字符串:
归档时间: |
|
查看次数: |
99722 次 |
最近记录: |