我已经阅读了论文 MobileNetV2(arXiv:1801.04381)
我注意到 SSD Lite MobileNetV2 的推理时间比 SSD MobileNetV2 快。
在 MobileNetV2 论文中,下面这句话中只有对 SSD Lite 的简短说明:
“我们用 SSD 预测层中的可分离卷积(深度方向后跟 1 × 1 投影)替换所有常规卷积”。
所以我的问题是,SSD 和 SSD Lite 有什么区别?
我不明白其中的区别,因为当 MobileNetV1(arXiv:1704.04861v1) 发布并应用于 SSD 时,它已经将所有卷积层替换为上面提到的深度可分离卷积。
我正在研究谷歌的全新MobileNetV2架构。
在学习期间,我在 Tensorflow model zoo Github 阅读了这个字符串
“例如,Mobilenet V2 在移动设备上比 Mobilenet V1 快,但在桌面 GPU 上稍慢。”
所以,我的问题是,
这怎么可能?我真的很想知道为什么。