小编Jus*_*ter的帖子

Tensorflow:损失减少,但精度稳定

我的团队正在Tensorflow中培训CNN,对损坏/可接受的部件进行二元分类.我们通过修改cifar10示例代码来创建代码.在我之前使用神经网络的经验中,我总是训练直到损失非常接近0(远低于1).然而,我们现在正在训练期间(在单独的GPU上)使用验证集来评估我们的模型,并且看起来精确度在大约6.7k步之后停止增加,而在超过40k步之后损失仍然稳定地下降.这是由于过度拟合吗?一旦损失非常接近零,我们是否应该看到准确度再次出现飙升?目前的最大精度是不可接受的.我们应该杀了它并继续调整吗?您有什么推荐的吗?以下是我们修改后的代码和培训流程图.

https://gist.github.com/justineyster/6226535a8ee3f567e759c2ff2ae3776b

精确和损失图像

convolution neural-network deep-learning conv-neural-network tensorflow

12
推荐指数
3
解决办法
1万
查看次数