Gar*_*ett 5 scikit-learn hyperparameters keras talos
我发现的唯一适用于 Keras 函数式 API 的超参数优化库是 Talos。
有谁知道其他任何可行的方法?
Ami*_*ine -1
您可以使用带有交叉验证的 Sklearn 网格搜索来执行 Keras 超参数调优。
\n\n要使用顺序 Keras 模型(仅限单输入)执行网格搜索,您必须使用Scikit-Learn API 的 Keras 包装器将这些模型转换为与 sklearn 兼容的估计器。
\n\n\n\n\nsklearn 估计器是一个具有 fit(X,y) 、 Predict(x) 和 Score 方法的类对象。(以及可选的predict_proba方法)
\n
无需从头开始,您可以通过实现 keras.wrappers.scikit_learnpackage 中的两个包装器之一,将 Sequential Keras 模型用作 Scikit-Learn 工作流程的一部分:
\n\nKerasClassifier(build_fn=None, **sk_params): which implements the Scikit-Learn classifier interface.\nKerasRegressor(build_fn=None, **sk_params): which implements the Scikit-Learn regressor interface.\nRun Code Online (Sandbox Code Playgroud)\n\n论据
\n\nbuild_fn: callable function or class instance the should construct, compile and return a Keras model, which will then be used to fit/predict.\nsk_params: model parameters & fitting parameters.\nRun Code Online (Sandbox Code Playgroud)\n\n\n\n\n请注意,与 scikit-learn 中的所有其他估计器一样,build_fn 应为其参数提供默认值,以便您可以创建估计器而无需将任何值传递给 sk_params。
\n
我们想要微调这些超参数:optimizer、dropout_rate、kernel_init method和dense_layer_sizes。
\n\n这些参数必须在具有默认参数的create_model()函数的签名中定义。如果需要,您可以添加其他超参数,例如learning_rate,...
\n\nbinary_crossentropy非常适合二分类问题。
\n\ndef create_model(dense_layer_sizes, optimizer="adam", dropout=0.1, init=\'uniform\', nbr_features=2500, dense_nparams=256):\n model = Sequential()\n model.add(Dense(dense_nparams, activation=\'relu\', input_shape=(nbr_features,), kernel_initializer=init,)) \n model.add(Dropout(dropout), )\n for layer_size in dense_layer_sizes:\n model.add(Dense(layer_size, activation=\'relu\'))\n model.add(Dropout(dropout), )\n model.add(Dense(1, activation=\'sigmoid\'))\n model.compile(loss=\'binary_crossentropy\', optimizer=optimizer,metrics=["accuracy"])\n return model\nRun Code Online (Sandbox Code Playgroud)\n\n它\xe2\x80\x99 是一个分类问题,因此我们使用 KerasClassifier 包装器。
\n\nkears_estimator = KerasClassifier(build_fn=create_model, verbose=1)\nRun Code Online (Sandbox Code Playgroud)\n\n我们在这里定义我们的超参数空间,包括 keras fit 超参数:epochs和batch_size:
\n\n# define the grid search parameters\nparam_grid = {\n epochs\': [10, 100, ],\n dense_nparams\': [32, 256, 512],\n init\': [ \'uniform\', \'zeros\', \'normal\', ], \n batch_size\':[2, 16, 32],\n optimizer\':[\'RMSprop\', \'Adam\', \'Adamax\', \'sgd\'],\n dropout\': [0.5, 0.4, 0.3, 0.2, 0.1, 0]\n}\nRun Code Online (Sandbox Code Playgroud)\n\nkfold_splits = 5\ngrid = GridSearchCV(estimator=kears_estimator, \n n_jobs=-1, \n verbose=1,\n return_train_score=True,\n cv=kfold_splits, #StratifiedKFold(n_splits=kfold_splits, shuffle=True)\n param_grid=param_grid,)\n\ngrid_result = grid.fit(X, y, )\n\n# summarize results\nprint("Best: %f using %s" % (grid_result.best_score_, grid_result.best_params_))\nmeans = grid_result.cv_results_[\'mean_test_score\']\nstds = grid_result.cv_results_[\'std_test_score\']\nparams = grid_result.cv_results_[\'params\']\nfor mean, stdev, param in zip(means, stds, params):\n print("%f (%f) with: %r" % (mean, stdev, param))\nRun Code Online (Sandbox Code Playgroud)\n
| 归档时间: |
|
| 查看次数: |
974 次 |
| 最近记录: |