wee*_*325 5 deep-learning tensorflow semantic-segmentation
目前,我\xe2\x80\x99m正在努力使用在自己的数据集上训练的deeplabV3+来改善语义分割问题的结果。\n我\xe2\x80\x99使用来自模型动物园的不同预训练模型成功地训练了deeplabV3+几次,所有这些都基于在xception_65上,但我的结果保持在相同的miou范围内,大约在这个区间[10, 11]附近。\n我只有一个 GPU 可供使用,具有 11GB GPU 内存。\n我的数据集有8 个具有不同对象大小的类,从从小到大,并且非常不平衡。\n以下是标签权重:[1, 4, 4, 17, 42, 36, 19, 20]。\n在我的数据集中,我有 757 个训练实例和100个 验证实例。
\n\n训练时的总体趋势是:前 10k 次迭代我的损失减少,但随后它只会振荡。
\n我\xe2\x80\x99已经尝试过:
调整参数,例如:学习率、last_layer_gradient_multiplier、权重衰减
对各种图像尺寸进行训练321, 513, 769
在该公式中使用上述权重进行某种加权
\n\n权重 = tf.to_float(tf.equal(scaled_labels, 0)) * 1 +\n tf.to_float(tf.equal(scaled_labels, 1)) * 4 +\n tf.to_float(tf.equal(scaled_labels, 2) ) * 4 +\n tf.to_float(tf.equal(scaled_labels, 3)) * 17 +\n tf.to_float(tf.equal(scaled_labels, 4)) * 42 +\n tf.to_float(tf.equal( scaled_labels, 5)) * 36 +\n tf.to_float(tf.equal(scaled_labels, 6)) * 19 +\n tf.to_float(tf.equal(scaled_labels, 7)) * 20 +\n tf.to_float( tf.equal(scaled_labels,ignore_label)) * 0.0
我\xe2\x80\x99在没有微调批量归一化参数的情况下进行了训练(fine_tune_batch_norm = False)。尽管我也尝试使用 321 裁剪大小来训练这些参数(fine_tune_batch_norm = True),以便能够在我的 GPU 中适应12的批量大小。
\n\n重点是我需要一些提示来弄清楚我可以采取哪些措施来改善这些结果。\n你们觉得怎么样?我是否需要更多数据来增加我的 miou 或硬件?
\n| 归档时间: |
|
| 查看次数: |
873 次 |
| 最近记录: |