小编Sid*_*d M的帖子

选择tensorflow对象检测API训练超参数

我正在建立一个基于最近发布的tensorflow对象检测API的对象检测管道.我使用arXiv作为指导.我希望了解以下对我自己的数据集的培训.

  1. 目前尚不清楚他们如何选择学习率计划以及如何根据可用于培训的GPU数量进行更改.根据可用于培训的GPU数量,培训费率计划如何变化?该文提到使用了9个GPU.如果我只想使用1个GPU,我应该如何改变训练率?

  2. 使用Faster R-CNN 发布的Pascal VOC 样本培训配置文件的初始学习率= 0.0001.这比最初的Faster-RCNN论文中发布的版本低10倍.这是由于对GPU可用于培训的数量或由于不同原因的假设?

  3. 当我从COCO检测检查点开始训练时,训练损失应该如何减少?看看tensorboard,我的数据集训练损失很低 - 每次迭代0.8到1.2之间(批量大小为1).下图显示了tensorboard的各种损失..这是预期的行为吗?
    训练损失 - 更快的RCNN

object-detection tensorflow

8
推荐指数
1
解决办法
1299
查看次数

Tensorflow对象检测API具有缓慢的推理时间和tensorflow服务

我无法匹配Google报告的模型动物园中发布的模型的推断时间.具体来说,我正在尝试他们的faster_rcnn_resnet101_coco模型,其中报告的推理时间是106ms在Titan X GPU上.

我的服务系统使用TF 1.4在由Google发布的Dockerfile构建的容器中运行.我的客户端是在Google发布的初始客户端之后建模的.

我正在运行Ubuntu 14.04,TF 1.4和1 Titan X.我的总推理时间比谷歌报告的差330倍~330ms.制作张量原型需要~150ms,Predict需要~180ms.我saved_model.pb是直接从模型动物园下载的tar文件.有什么我想念的吗?我可以采取哪些步骤来缩短推理时间?

object-detection tensorflow tensorflow-serving tensorflow-gpu object-detection-api

5
推荐指数
1
解决办法
2107
查看次数