小编Nat*_*ate的帖子

保存并重新加载拥抱面微调变压器

我正在尝试重新加载经过微调的 DistilBertForTokenClassification 模型。我正在使用转换器 3.4.0 和 pytorch 版本 1.6.0+cu101。使用 Trainer 训练下载的模型后,我使用 trainer.save_model() 保存模型,并在故障排除中通过 model.save_pretrained() 保存在不同的目录中。我正在使用 Google Colab 并将模型保存到我的 Google 驱动器。在测试模型后,我还在我的测试中评估了模型并获得了很好的结果,但是,当我返回笔记本(或工厂重新启动 colab 笔记本)并尝试重新加载模型时,预测很糟糕。检查目录后,config.json 文件和 pytorch_mode.bin 文件都在那里。下面是完整的代码。

from transformers import DistilBertForTokenClassification

# load the pretrained model from huggingface
#model = DistilBertForTokenClassification.from_pretrained('distilbert-base-cased', num_labels=len(uniq_labels))
model = DistilBertForTokenClassification.from_pretrained('distilbert-base-uncased', num_labels=len(uniq_labels)) 

model.to('cuda');

from transformers import Trainer, TrainingArguments

training_args = TrainingArguments(
    output_dir = model_dir +  'mitmovie_pt_distilbert_uncased/results',          # output directory
    #overwrite_output_dir = True,
    evaluation_strategy='epoch',
    num_train_epochs=3,              # total number of training epochs
    per_device_train_batch_size=16,  # batch size per device during training
    per_device_eval_batch_size=64, …
Run Code Online (Sandbox Code Playgroud)

python pytorch huggingface-transformers

9
推荐指数
2
解决办法
3915
查看次数

标签 统计

huggingface-transformers ×1

python ×1

pytorch ×1