如何修复“ValueError:无法实例化此分词器。请确保安装了 `sentencepiece` 才能使用此分词器。”

arn*_*nle 5 python valueerror google-colaboratory huggingface-transformers

我正在尝试在 Google Colab 中使用以下代码运行 Hugging Face 模型:

!pip install transformers

from transformers import AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("Helsinki-NLP/opus-mt-en-es")
inputs = tokenizer(text, return_tensors="pt").input_ids
Run Code Online (Sandbox Code Playgroud)

我遇到以下错误:

ValueError: This tokenizer cannot be instantiated. Please make sure you have `sentencepiece` installed in order to use this tokenizer.
Run Code Online (Sandbox Code Playgroud)

我如何解决它?

小智 0

!pip install sentencepiece

我遇到了类似的问题,但我设法通过运行上述命令并重新启动内核来解决它。