在 colab 上 - class_weight 导致 ValueError:具有多个元素的数组的真值不明确。使用 a.any() 或 a.all()

eth*_*212 8 python sequential keras tensorflow google-colaboratory

我正在 google colab 上运行带有 keras 顺序的 CNN。

我收到以下错误: ValueError:具有多个元素的数组的真值不明确。使用 a.any() 或 a.all()

当我从 model.fit 函数中删除 class_weight 参数时,错误消失并且网络成功训练。然而,我真的想考虑不平衡的数据

我检查了我的 class_weights 向量的形状,它很好(和 nd.array,就像你从 sklearn 计算类权重函数生成 class_Weights 时得到的一样)

不确定哪些细节是相关的,但我很乐意提供有关版本和所有这些混乱的更多细节。

ps

一个可能很重要的事实 - 我的数据是 FER2013 数据,我使用的是 FERplus 标签。这意味着,我的样本与一个独特的类别无关,而是每个样本都有自己的每个类别的概率分布。最重要的是,我的标签是大小为 class_names 的向量,所有元素加起来为 1。

只是为了超级清楚,一个例子:img1 label = [0,0,0,0,0.2,0,0.3,0,0,0.5]

无论如何,我将 class_weights 计算为大小为 10 的 nd.array,元素范围在 0 和 1 之间,应该平衡更多代表的类。

我不确定这是否与错误有关,但我提出它以防万一。

我的代码:

def create_model_plus():
  return tf.keras.models.Sequential([
    tf.keras.layers.Conv2D(filters=32,kernel_size=5,strides=1,input_shape=(48, 48, 1),padding='same',use_bias=True,kernel_initializer='normal',bias_initializer=tf.keras.initializers.Constant(0.1),activation=tf.nn.relu),
    tf.keras.layers.BatchNormalization(),
    tf.keras.layers.MaxPooling2D((2, 2), strides=2),
    tf.keras.layers.Conv2D(filters=64,kernel_size=5,strides=1,padding='same',use_bias=True,kernel_initializer='normal',bias_initializer=tf.keras.initializers.Constant(0.1),activation=tf.nn.relu),
    tf.keras.layers.BatchNormalization(),
    tf.keras.layers.MaxPooling2D((2, 2), strides=1),
    tf.keras.layers.Conv2D(filters=128,kernel_size=5,strides=1,padding='same',use_bias=True,kernel_initializer='normal',bias_initializer=tf.keras.initializers.Constant(0.1),activation=tf.nn.relu),
    tf.keras.layers.BatchNormalization(),    
    tf.keras.layers.MaxPooling2D((2, 2), strides=1),
    tf.keras.layers.Flatten(),
    tf.keras.layers.Dense(1008, activation='relu'),
    tf.keras.layers.Dropout(0.2),
    tf.keras.layers.Dense(512, activation='relu'),
    tf.keras.layers.Dense(10, activation='softmax')
  ])


history_df=[]
history_object=tf.keras.callbacks.History()
#save_best_object=tf.keras.callbacks.ModelCheckpoint('/Users/nimrodros', monitor='val_loss', verbose=1, save_best_only=True, save_weights_only=False, mode='auto', period=1)

early_stop_object=tf.keras.callbacks.EarlyStopping(monitor='val_loss',min_delta=0.001, patience=4)
gony_adam=tf.keras.optimizers.Adam(
    lr=0.001
)
reduce_lr = tf.keras.callbacks.ReduceLROnPlateau(monitor='val_loss', factor=0.3,patience=3, min_lr=0.0001, verbose=1)

#log_dir = "logs/fit/" + datetime.datetime.now().strftime("%Y%m%d-%H%M%S")
#tensorboard_callback = tf.keras.callbacks.TensorBoard(log_dir=log_dir, histogram_freq=1)

datagen = tf.keras.preprocessing.image.ImageDataGenerator(rotation_range=8, width_shift_range=0.2,
    height_shift_range=0.2,
    horizontal_flip=True,
    validation_split=0.3
    )
datagen.fit(images.reshape(28709,48,48,1))
model = create_model_plus()
model.compile(optimizer=gony_adam,
        loss='categorical_crossentropy',
        metrics=['accuracy'])
history = model.fit(x=datagen.flow(images.reshape(28709,48,48,1), FER_train_labels, batch_size=32,subset='training'),validation_data=datagen.flow(images.reshape(28709,48,48,1), FER_train_labels, batch_size=32,subset='validation'),steps_per_epoch=600,validation_steps=250,epochs=60,callbacks=[history_object,early_stop_object,reduce_lr],class_weight=cl_weigh)
history_df=pd.DataFrame(history.history)
Run Code Online (Sandbox Code Playgroud)

希望有人知道该怎么做!谢谢!!!

小智 18

问题是 sklearn API 返回一个 numpy 数组,但 keras 需要一个字典作为 class_weight 的输入(请参阅此处)。您可以使用以下方法解决错误:

from sklearn.utils import class_weight
weight = class_weight.compute_class_weight('balanced', np.unique(y_train), y_train)
weight = {i : weight[i] for i in range(5)}
Run Code Online (Sandbox Code Playgroud)

  • 对于任意长度的权重向量,您可以使用:“weights_dict = {i:w for i,w in enumerate(weight)}” (2认同)