MobileNetV2 的 Keras 和 TensorFlow Hub 版本之间的差异

Fro*_*nek 3 keras tensorflow-hub mobilenet

我正在研究一种迁移学习方法,并且在使用 MobileNetV2keras.applications和 TensorFlow Hub 上的 MobileNetV2 时得到了截然不同的结果。这对我来说似乎很奇怪,因为两个版本都声称这里这里从同一检查点mobilenet_v2_1.0_224提取它们的权重。这就是重现差异的方法,您可以在此处找到 Colab Notebook :

!pip install tensorflow-gpu==2.1.0
import tensorflow as tf
import numpy as np
import tensorflow_hub as hub
from tensorflow.keras.applications.mobilenet_v2 import MobileNetV2

def create_model_keras():
  image_input = tf.keras.Input(shape=(224, 224, 3))
  out = MobileNetV2(input_shape=(224, 224, 3),
                  include_top=True)(image_input)
  model = tf.keras.models.Model(inputs=image_input, outputs=out)
  model.compile(optimizer='adam', loss=["categorical_crossentropy"])
  return model

def create_model_tf():
  image_input = tf.keras.Input(shape=(224, 224 ,3))
  out = hub.KerasLayer("https://tfhub.dev/google/tf2-preview/mobilenet_v2/classification/4",
                      input_shape=(224, 224, 3))(image_input)
  model = tf.keras.models.Model(inputs=image_input, outputs=out)
  model.compile(optimizer='adam', loss=["categorical_crossentropy"])
  return model
Run Code Online (Sandbox Code Playgroud)

当我尝试对随机批次进行预测时,结果不相等:

keras_model = create_model_keras()
tf_model = create_model_tf()
np.random.seed(42)
data = np.random.rand(32,224,224,3)
out_keras = keras_model.predict_on_batch(data)
out_tf = tf_model.predict_on_batch(data)
np.array_equal(out_keras, out_tf)
Run Code Online (Sandbox Code Playgroud)

版本的输出总和keras.applications为 1,但 TensorFlow Hub 的版本不是。而且两个版本的形状也不同:TensorFlow Hub 有 1001 个标签,keras.applications有 1000 个。

np.sum(out_keras[0]), np.sum(out_tf[0])
Run Code Online (Sandbox Code Playgroud)

印刷(1.0000001, -14.166359)

造成这些差异的原因是什么?我错过了什么吗?

编辑 2020年2月18日

正如 Szymon Maszke 指出的,TFHub 版本返回 logits。这就是为什么我添加了一个 Softmax 层,如下所示create_model_tfout = tf.keras.layers.Softmax()(x)

arnoegw提到TfHub版本需要将图像标准化为[0,1],而keras版本需要标准化为[-1,1]。当我对测试图像使用以下预处理时:

from tensorflow.keras.applications.mobilenet_v2 import preprocess_input
img = tf.keras.preprocessing.image.load_img("/content/panda.jpeg", target_size=(224,224))
img = tf.keras.preprocessing.image.img_to_array(img)
img = preprocess_input(img)
Run Code Online (Sandbox Code Playgroud)
img = tf.io.read_file("/content/panda.jpeg")
img = tf.image.decode_jpeg(img)
img = tf.image.convert_image_dtype(img, tf.float32)
img = tf.image.resize(img, (224,224))
Run Code Online (Sandbox Code Playgroud)

两者都正确预测相同的标签,并且以下条件为真:np.allclose(out_keras, out_tf[:,1:], rtol=0.8)

编辑 2 18.02.2020 在我写过之前,不可能将格式相互转换。这是由一个错误引起的。

小智 5

有几个已记录的差异:

  • 正如 Szymon 所说,TF Hub 版本返回 logits(在将其转换为概率的 softmax 函数之前),这是一种常见的做法,因为可以根据 logits 计算出具有更高数值稳定性的交叉熵损失。

  • TF Hub 模型假设 float32 输入在 [0,1] 范围内,这是您从tf.image.decode_jpeg(...)后跟tf.image.convert_image_dtype(..., tf.float32). Keras 代码使用特定于模型的范围(可能是 [-1,+1])。

  • TF Hub 模型在返回其所有 1001 个输出类时更完整地反映了原始 SLIM 检查点。正如文档中链接的 ImageNetLabels.txt 中所述,添加的类 0 是“背景”(又名“东西”)。这就是对象检测用来指示图像背景而不是任何已知类别的对象的方法。