use*_*300 8 python euclidean-distance neural-network caffe pycaffe
我正在使用caffe在底部训练一个带有Euclidean损失层的CNN,并且我的solver.prototxt文件被配置为每100次迭代显示一次.我看到这样的事情,
Iteration 4400, loss = 0
I0805 11:10:16.976716 1936085760 solver.cpp:229] Train net output #0: loss = 2.92436 (* 1 = 2.92436 loss)
Run Code Online (Sandbox Code Playgroud)
我对迭代损失和火车净损失之间的差异感到困惑.通常迭代损失非常小(大约为0),并且列车净输出损失稍微大一些.有人可以澄清一下吗?
小智 4
Evan Shelhamer 已经在https://groups.google.com/forum/#!topic/caffe-users/WEhQ92s9Vus上给出了答案。
正如他指出的,net output #k结果是特定迭代/批次的网络输出,而Iteration T, loss = X输出根据字段在迭代之间进行平滑average_loss。
| 归档时间: |
|
| 查看次数: |
4831 次 |
| 最近记录: |