目前,我\xe2\x80\x99m正在努力使用在自己的数据集上训练的deeplabV3+来改善语义分割问题的结果。\n我\xe2\x80\x99使用来自模型动物园的不同预训练模型成功地训练了deeplabV3+几次,所有这些都基于在xception_65上,但我的结果保持在相同的miou范围内,大约在这个区间[10, 11]附近。\n我只有一个 GPU 可供使用,具有 11GB GPU 内存。\n我的数据集有8 个具有不同对象大小的类,从从小到大,并且非常不平衡。\n以下是标签权重:[1, 4, 4, 17, 42, 36, 19, 20]。\n在我的数据集中,我有 757 个训练实例和100个 验证实例。
\n\n训练时的总体趋势是:前 10k 次迭代我的损失减少,但随后它只会振荡。
\n我\xe2\x80\x99已经尝试过:
调整参数,例如:学习率、last_layer_gradient_multiplier、权重衰减
对各种图像尺寸进行训练321, 513, 769
在该公式中使用上述权重进行某种加权
\n\n权重 = tf.to_float(tf.equal(scaled_labels, 0)) * 1 +\n tf.to_float(tf.equal(scaled_labels, 1)) * 4 +\n tf.to_float(tf.equal(scaled_labels, 2) ) * 4 +\n tf.to_float(tf.equal(scaled_labels, 3)) * 17 +\n tf.to_float(tf.equal(scaled_labels, 4)) * 42 +\n tf.to_float(tf.equal( scaled_labels, …