我正在研究我的数据集上的一些 cross_validation 分数cross_val_score,特别KFold
是我的代码如下所示:
cross_val_score(estimator=model, X=X, y=y, scoring='r2', cv=KFold(shuffle=True))
Run Code Online (Sandbox Code Playgroud)
shuffle=True我的问题是,将 :放入: 中是否是一种常见行为,KFold如果我这样做,则 r2 分数的回报为:
[0.5934, 0.60432, 0.45689, 0.6875, 0.5678]
Run Code Online (Sandbox Code Playgroud)
如果我把shuffle=False它返回
[0.3987, 0,4576, 0.3234, 0.4567. 0.3233]
Run Code Online (Sandbox Code Playgroud)
我不希望用于迭代训练的相同点在下一次迭代中重新考虑,最终得到交叉验证的乐观分数。我应该如何解释我使用 获得更好的分数shuffle=True?
pip install通过 GitHub 存储库中的文件安装 python 包和python setup.py install使用 GitHub 存储库中的文件的主要区别是什么?
根据我现在的理解,我有点感觉使用第二个选项您将以某种开发人员模式安装存储库,您可以通过直接操作 git repo 克隆的文件来进行更改。它是否正确?我想找到对此的正确解释。
如何使用单个优化器联合优化包含两个不同神经网络的模型参数?初始化优化器后,我尝试过以下内容:
optim_global = optim.Adam(zip(model1.parameters(), model2.parameters()))
Run Code Online (Sandbox Code Playgroud)
但我收到这个错误
TypeError: optimizer can only optimize Tensors, but one of the params is tuple
Run Code Online (Sandbox Code Playgroud)