焦点损失可以定义为(注意:原始论文描述了二进制分类的损失,但是在这里我将其扩展为多类情况):
其中K表示班级数;yi如果地面真相属于第i类,则等于1;否则,等于0。pi是第i类的预测概率;??(0,+?)是聚焦参数;?i?[0,1]是第i类的加权参数。损失类似于分类交叉熵,如果?=0和,它们将是等效的?i=1。那么,这两个附加参数的目的是什么?
正如原始论文所指出的那样,类不平衡是一个非常有问题的问题,它实际上限制了检测器的性能。这是因为图像中的大多数位置都是容易产生的负片(意味着可以很容易地被检测器归类为背景),并且不会产生有用的学习信号;更糟糕的是,由于它们占了输入的很大一部分,因此它们会使损失和计算的梯度不堪重负,并导致模型退化。为了解决这个问题,焦点损失引入了聚焦参数?来降低分配给容易分类的示例的损失的权重。随着增加值的?增加,此效果也会增加,并使网络更多地关注硬示例。
平衡参数?对于解决类别不平衡也很有用。可以通过逆类频率(或作为超参数)进行设置,以便可以降低分配给背景类示例的损耗。
请注意,由于这两个参数相互交互,因此应一起选择它们。一般来说,随着?增加,?应该稍微降低11。
这是一个详细解释RetinaNet的帖子:https ://blog.zenggyu.com/en/post/2018-12-05/retinanet-explained-and-demystified/
| 归档时间: |
|
| 查看次数: |
347 次 |
| 最近记录: |