这条消息是关于什么的?如何删除此警告消息。谢谢。
import scispacy
import spacy
import en_core_sci_lg
from spacy_langdetect import LanguageDetector
from spacy.language import Language
from spacy.tokens import Doc
def create_lang_detector(nlp, name):
return LanguageDetector()
Language.factory("language_detector", func=create_lang_detector)
nlp = en_core_sci_lg.load(disable=["tagger", "ner"])
nlp.max_length = 2000000
nlp.add_pipe('language_detector', last=True)
doc = nlp('This is some English text. Das ist ein Haus. This is a house.')
Run Code Online (Sandbox Code Playgroud)
警告:
[W108] 基于规则的词形还原器未找到标记“This”的 POS 注释。检查您的管道是否包含分配 token.pos 的组件,通常是 'tagger'+'attribute_ruler' 或 'morphologizer'。
[W108] 基于规则的词形还原器未找到标记“is”的 POS 注释。检查您的管道是否包含分配 token.pos 的组件,通常是 'tagger'+'attribute_ruler' 或 'morphologizer'。
[W108] 基于规则的词形还原器没有找到标记“some”的 POS 注释。检查您的管道是否包含分配 token.pos 的组件,通常是 'tagger'+'attribute_ruler' 或 'morphologizer'。
. . . .
aab*_*aab 10
lemmatizer 是一个独立于 spacy v3 中的标注器的组件。禁用 lemmatizer 和标记器以避免这些警告:
nlp = en_core_sci_lg.load(disable=["tagger", "ner", "lemmatizer"])
Run Code Online (Sandbox Code Playgroud)