Pau*_*lin 19 neural-network hyperparameters tensorflow
我有一个非常简单的ANN使用Tensorflow和AdamOptimizer来解决回归问题,现在我正在调整所有超参数.
现在,我看到了许多不同的超参数,我必须调整:
我有两个问题:
1)你看到我可能忘记的任何其他超参数吗?
2)目前,我的调音非常"手动",我不确定我是不是以正确的方式做所有事情.是否有特殊的顺序来调整参数?例如学习率首先,然后批量大小,然后......我不确定所有这些参数是否独立 - 事实上,我很确定其中一些参数不是.哪些明显独立,哪些明显不独立?我们应该把它们调在一起吗?是否有任何纸张或文章谈论正确调整特殊订单中的所有参数?
编辑:这是我得到的不同初始学习率,批量大小和正则化参数的图表.紫色曲线对我来说是完全奇怪的...因为成本随着其他方式慢慢下降,但它却以较低的准确率陷入困境.该模型是否可能陷入局部最小值?
对于学习率,我使用了衰变:LR(t)= LRI/sqrt(epoch)
谢谢你的帮助 !保罗
我的一般命令是:
依赖关系:
我假设最佳值
彼此强烈依赖.我不是那个领域的专家.
至于你的超参数:
对于不太重要的参数,您可能只需选择一个合理的值并坚持使用即可。
正如您所说,这些参数的最佳值都相互依赖。最简单的事情是为每个超参数定义合理的值范围。然后从每个范围中随机采样一个参数,并使用该设置训练模型。重复此操作多次,然后选择最佳模型。如果幸运的话,您将能够分析哪些超参数设置效果最好,并从中得出一些结论。
| 归档时间: |
|
| 查看次数: |
7272 次 |
| 最近记录: |