Spark-NLP 预训练管道仅适用于 linux 系统吗?

Stu*_*mer 7 johnsnowlabs-spark-nlp

我正在尝试设置一个简单的代码,在其中传递数据帧并使用 johnSnowLabs Spark-NLP 库提供的预训练解释管道对其进行测试。我正在使用 anaconda 的 jupyter 笔记本,并使用 apache toree 进行了 spark scala kernet 设置。每次我运行应该加载预训练管道的步骤时,它都会抛出一个 tensorflow 错误。有没有办法可以在本地 Windows 上运行它?

I was trying this in a maven project earlier and the same error had happened. Another colleague tried it on a linux system and it worked. Below is the code I have tried and the error that it gave.


import org.apache.spark.ml.PipelineModel
import com.johnsnowlabs.nlp.pretrained.PretrainedPipeline
import com.johnsnowlabs.nlp.SparkNLP
import org.apache.spark.sql.SparkSession

val spark: SparkSession = SparkSession
    .builder()
    .appName("test")
    .master("local[*]")
    .config("spark.driver.memory", "4G")
    .config("spark.kryoserializer.buffer.max", "200M")
    .config("spark.serializer", "org.apache.spark.serializer.KryoSerializer")
    .getOrCreate()

val testData = spark.createDataFrame(Seq(
    (1, "Google has announced the release of a beta version of the popular TensorFlow machine learning library"),
    (2, "Donald John Trump (born June 14, 1946) is the 45th and current president of the United States"))).toDF("id", "text")
val pipeline = PretrainedPipeline("explain_document_dl", lang = "en") //this is where it gives error
val annotation = pipeline.transform(testData)

  annotation.show()

  annotation.select("entities.result").show(false)
Run Code Online (Sandbox Code Playgroud)

出现以下错误:

名称:java.lang.UnsupportedOperationException 消息:Spark NLP 尝试使用 Contrib 模块加载 Tensorflow 图,但未能在此系统上加载它。如果您使用的是 Windows,则不支持此操作。请尝试非贡献模型。如果不是这种情况,请报告此问题。原始错误信息:

Op 类型未在“MyMachine”上运行的二进制文件中注册“BlockLSTM”。确保 Op 和 Kernel 已在此过程中运行的二进制文件中注册。请注意,如果您正在加载使用来自 tf.contrib 的操作的已保存图形,tf.contrib.resampler则应在导入图形之前完成访问(例如) ,因为在首次访问模块时会延迟注册 contrib 操作。StackTrace:操作类型未在“MyMachine”上运行的二进制文件中注册“BlockLSTM”。确保 Op 和 Kernel 已在此过程中运行的二进制文件中注册。请注意,如果您正在加载使用来自 tf.contrib 的操作的已保存图形,tf.contrib.resampler则应在导入图形之前完成访问(例如) ,因为在首次访问模块时会延迟注册 contrib 操作。
在 com.johnsnowlabs.ml.tensorflow.TensorflowWrapper$.readGraph(TensorflowWrapper.scala:163) 在 com.johnsnowlabs.ml.tensorflow.TensorflowWrapper$.read(TensorflowWrapper.scala:202) 在 com.johnsnowlabs.ml.tensorflow.scala:202) $class.readTensorflowModel(TensorflowSerializeModel.scala:73) 在 com.johnsnowlabs.nlp.annotators.ner.dl.NerDLModel$.readTensorflowModel(NerDLModel.scala:134) 在 com.johnsnowlabs.nlp.annotators.Reads.nerd.nerd class.readNerGraph(NerDLModel.scala:112) at com.johnsnowlabs.nlp.annotators.ner.dl.NerDLModel$.readNerGraph(NerDLModel.scala:134) at com.johnsnowlabs.nlp.annotators.ner.dl.ReadsNERGraph$ anonfun$2.apply(NerDLModel.scala:116) 在 com.johnsnowlabs.nlp.annotators.ner.dl.ReadsNERGraph$$anonfun$2.apply(NerDLModel.scala:116) 在 com.johnsnowlabs.nlp。ParamsAndFeaturesReadable$$anonfun$com$johnsnowlabs$nlp$ParamsAndFeaturesReadable$$onRead$1.apply(ParamsAndFeaturesReadable.scala:31) 在 com.johnsnowlabs.nlp.ParamsAndFeaturesReadable$$anonfun$com$johns$Apply$Apply (ParamsAndFeaturesReadable.scala:30) at scala.collection.mutable.ResizableArray$class.foreach(ResizableArray.scala:59) at scala.collection.mutable.ArrayBuffer.foreach(ArrayBuffer.scala:48) at com.johnsnowlabs.nlp。 ParamsAndFeaturesReadable$class.com$johnsnowlabs$nlp$ParamsAndFeaturesReadable$$onRead(ParamsAndFeaturesReadable.scala:30) 在 com.johnsnowlabs.nlp.ParamsAndFeaturesReadable$$anonfun$read$1.apply(ParamsAndFeaturesReadable.scala:30)at .ParamsAndFeaturesReadable$$anonfun$read$1.apply(ParamsAndFeaturesReadable.scala:41) 在 com.johnsnowlabs.nlp。FeaturesReader.load(ParamsAndFeaturesReadable.scala:19) at com.johnsnowlabs.nlp.FeaturesReader.load(ParamsAndFeaturesReadable.scala:8) at org.apache.spark.ml.util.DefaultParamsReader$.loadParamsInstance(ReadWrite.scala:652) at org.apache.spark.ml.Pipeline$SharedReadWrite$$anonfun$4.apply(Pipeline.scala:27​​4) at org.apache.spark.ml.Pipeline$SharedReadWrite$$anonfun$4.apply(Pipeline.scala:27​​2) at scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala:234) 在 scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala:234) 在 scala.collection.IndexedSeqOptimized$class。 foreach(IndexedSeqOptimized.scala:33) at scala.collection.mutable.ArrayOps$ofRef.foreach(ArrayOps.scala:186) at scala.collection.TraversableLike$class.map(TraversableLike.scala:234) at scala.collection.mutable .ArrayOps$ofRef.map(ArrayOps.scala:186)
在 org.apache.spark.ml.Pipeline$SharedReadWrite$.load(Pipeline.scala:27​​2) 在 org.apache.spark.ml.PipelineModel$PipelineModelReader.load(Pipeline.scala:348) 在 org.apache.spark。 ml.PipelineModel$PipelineModelReader.load(Pipeline.scala:342) at com.johnsnowlabs.nlp.pretrained.ResourceDownloader$.downloadPipeline(ResourceDownloader.scala:135) at com.johnsnowlabs.nlp.pretrained.ResourceDownloader$.downloadPipeline( scala:129) 在 com.johnsnowlabs.nlp.pretrained.PretrainedPipelin enter code heree.(PretrainedPipeline.scala:14)

Maz*_*yar 4

我查了一下,该管道中有一个 NER 模型。该 NER 模型是使用 TensorFlow 进行训练的,其中的一些contrib代码仅与基于 Unix 的操作系统(例如 Linux 和 macOS)兼容。这里有一个悬而未决的问题:

https://github.com/tensorflow/tensorflow/issues/26468

为此,他们发布了一些名为noncontrib. 您可以将管道名称更改为以下内容:

val pipeline = PretrainedPipeline("explain_document_dl_noncontrib", lang = "en")
Run Code Online (Sandbox Code Playgroud)

所有预训练管道的来源: https ://nlp.johnsnowlabs.com/docs/en/pipelines

全面披露:我是 Spark NLP 库的贡献者之一。

更新:自从 Spark NLP 发布以来2.4.0,所有模型和管道现在都是跨平台的: https: //github.com/JohnSnowLabs/spark-nlp-models

如果您使用 Spark NLP 2.4.0 版本,这应该适用于 Linux、macOS 和 Windows:

val pipeline = PretrainedPipeline("explain_document_dl_noncontrib", lang = "en")
Run Code Online (Sandbox Code Playgroud)

2022 年更新:除了 M1 和 aarch64 架构(目前)外,所有 5000 多个模型/管道都与 Windows(8、10 和 11)、Linux(Ubuntu、Debian、CentOS 等)和macOS 操作系统。Spark NLP 模型中心: https: //nlp.johnsnowlabs.com/models