警告:[W108] 基于规则的词形还原器未找到标记“This”的 POS 注释

Shi*_*rma 4 python spacy

这条消息是关于什么的?如何删除此警告消息。谢谢。

            import scispacy
            import spacy
            import en_core_sci_lg
            from spacy_langdetect import LanguageDetector
            from spacy.language import Language
            from spacy.tokens import Doc
             
            def create_lang_detector(nlp, name):
                return LanguageDetector()
            
            Language.factory("language_detector", func=create_lang_detector)
            nlp = en_core_sci_lg.load(disable=["tagger", "ner"])
            nlp.max_length = 2000000
            nlp.add_pipe('language_detector', last=True)
            
            doc = nlp('This is some English text. Das ist ein Haus. This is a house.')  
        
Run Code Online (Sandbox Code Playgroud)

警告:

[W108] 基于规则的词形还原器未找到标记“This”的 POS 注释。检查您的管道是否包含分配 token.pos 的组件,通常是 'tagger'+'attribute_ruler' 或 'morphologizer'。

[W108] 基于规则的词形还原器未找到标记“is”的 POS 注释。检查您的管道是否包含分配 token.pos 的组件,通常是 'tagger'+'attribute_ruler' 或 'morphologizer'。

[W108] 基于规则的词形还原器没有找到标记“some”的 POS 注释。检查您的管道是否包含分配 token.pos 的组件,通常是 'tagger'+'attribute_ruler' 或 'morphologizer'。
. . . .

aab*_*aab 10

lemmatizer 是一个独立于 spacy v3 中的标注器的组件。禁用 lemmatizer 和标记器以避免这些警告:

nlp = en_core_sci_lg.load(disable=["tagger", "ner", "lemmatizer"])
Run Code Online (Sandbox Code Playgroud)