Sha*_*ana 2 object-detection deep-learning
本文明确提到分类和回归损失与快速RCNN中的RPN网络相同.有人可以解释面具损失功能.如何使用FCN改进?
FCN使用每像素softmax和多项式损失.这意味着,掩模预测任务(对象的边界)和类预测任务(被掩蔽的对象是什么)被耦合.
Mask-RCNN解耦这些任务:现有的边界框预测(AKA,本地化任务)头部预测类,如更快的RCNN,并且掩码分支为每个类生成一个掩码,没有类之间的竞争(例如,如果你有21个类掩码分支预测21个掩码而不是FCN的单掩码和21个通道.使用的损失是每像素S型+二进制损耗.
最重要的是,它是Mask-RCNN中的Sigmoid与FCN中的Soft-max.
(见掩护RCNN论文表 - 腹部消融部分表2.b.).
Mask R-CNN 的多任务损失函数结合了分类、定位和分割 mask 的损失:L=Lcls+Lbox+Lmask,其中 Lcls 和 Lbox 与 Faster R-CNN 中的相同。
\n\nmask分支为每个RoI和每个类生成一个mxm维度的mask;总共K个班。因此,总输出的大小为 K\xe2\x8b\x85m^2
\n\n由于该模型试图为每个类别学习一个掩码,因此各个类别之间不存在生成掩码的竞争。
\n\n掩码:
\n\n被定义为平均二元交叉熵损失,如果该区域与真实类别 k 相关联,则仅包括第 k 个掩码。\n
其中 yij\nis 大小为 mxm 的区域的真实掩码中单元格 (i, j) 的标签;y^kij 是为真实类别 k 学习的掩码中相同单元格的预测值。
\n| 归档时间: |
|
| 查看次数: |
4874 次 |
| 最近记录: |