Caffe迭代损失与火车净损失

use*_*300 8 python euclidean-distance neural-network caffe pycaffe

我正在使用caffe在底部训练一个带有Euclidean损失层的CNN,并且我的solver.prototxt文件被配置为每100次迭代显示一次.我看到这样的事情,

Iteration 4400, loss = 0
I0805 11:10:16.976716 1936085760 solver.cpp:229]     Train net output #0: loss = 2.92436 (* 1 = 2.92436 loss)
Run Code Online (Sandbox Code Playgroud)

我对迭代损失和火车净损失之间的差异感到困惑.通常迭代损失非常小(大约为0),并且列车净输出损失稍微大一些.有人可以澄清一下吗?

小智 4

Evan Shelhamer 已经在https://groups.google.com/forum/#!topic/caffe-users/WEhQ92s9Vus上给出了答案。

正如他指出的,net output #k结果是特定迭代/批次的网络输出,而Iteration T, loss = X输出根据字段在迭代之间进行平滑average_loss