Stu*_*mer 7 johnsnowlabs-spark-nlp
我正在尝试设置一个简单的代码,在其中传递数据帧并使用 johnSnowLabs Spark-NLP 库提供的预训练解释管道对其进行测试。我正在使用 anaconda 的 jupyter 笔记本,并使用 apache toree 进行了 spark scala kernet 设置。每次我运行应该加载预训练管道的步骤时,它都会抛出一个 tensorflow 错误。有没有办法可以在本地 Windows 上运行它?
I was trying this in a maven project earlier and the same error had happened. Another colleague tried it on a linux system and it worked. Below is the code I have tried and the error that it gave.
import org.apache.spark.ml.PipelineModel
import com.johnsnowlabs.nlp.pretrained.PretrainedPipeline
import com.johnsnowlabs.nlp.SparkNLP
import org.apache.spark.sql.SparkSession
val spark: SparkSession = SparkSession
.builder()
.appName("test")
.master("local[*]")
.config("spark.driver.memory", "4G")
.config("spark.kryoserializer.buffer.max", "200M")
.config("spark.serializer", "org.apache.spark.serializer.KryoSerializer")
.getOrCreate()
val testData = spark.createDataFrame(Seq(
(1, "Google has announced the release of a beta version of the popular TensorFlow machine learning library"),
(2, "Donald John Trump (born June 14, 1946) is the 45th and current president of the United States"))).toDF("id", "text")
val pipeline = PretrainedPipeline("explain_document_dl", lang = "en") //this is where it gives error
val annotation = pipeline.transform(testData)
annotation.show()
annotation.select("entities.result").show(false)
Run Code Online (Sandbox Code Playgroud)
出现以下错误:
名称:java.lang.UnsupportedOperationException 消息:Spark NLP 尝试使用 Contrib 模块加载 Tensorflow 图,但未能在此系统上加载它。如果您使用的是 Windows,则不支持此操作。请尝试非贡献模型。如果不是这种情况,请报告此问题。原始错误信息:
Op 类型未在“MyMachine”上运行的二进制文件中注册“BlockLSTM”。确保 Op 和 Kernel 已在此过程中运行的二进制文件中注册。请注意,如果您正在加载使用来自 tf.contrib 的操作的已保存图形,
tf.contrib.resampler则应在导入图形之前完成访问(例如) ,因为在首次访问模块时会延迟注册 contrib 操作。StackTrace:操作类型未在“MyMachine”上运行的二进制文件中注册“BlockLSTM”。确保 Op 和 Kernel 已在此过程中运行的二进制文件中注册。请注意,如果您正在加载使用来自 tf.contrib 的操作的已保存图形,tf.contrib.resampler则应在导入图形之前完成访问(例如) ,因为在首次访问模块时会延迟注册 contrib 操作。
在 com.johnsnowlabs.ml.tensorflow.TensorflowWrapper$.readGraph(TensorflowWrapper.scala:163) 在 com.johnsnowlabs.ml.tensorflow.TensorflowWrapper$.read(TensorflowWrapper.scala:202) 在 com.johnsnowlabs.ml.tensorflow.scala:202) $class.readTensorflowModel(TensorflowSerializeModel.scala:73) 在 com.johnsnowlabs.nlp.annotators.ner.dl.NerDLModel$.readTensorflowModel(NerDLModel.scala:134) 在 com.johnsnowlabs.nlp.annotators.Reads.nerd.nerd class.readNerGraph(NerDLModel.scala:112) at com.johnsnowlabs.nlp.annotators.ner.dl.NerDLModel$.readNerGraph(NerDLModel.scala:134) at com.johnsnowlabs.nlp.annotators.ner.dl.ReadsNERGraph$ anonfun$2.apply(NerDLModel.scala:116) 在 com.johnsnowlabs.nlp.annotators.ner.dl.ReadsNERGraph$$anonfun$2.apply(NerDLModel.scala:116) 在 com.johnsnowlabs.nlp。ParamsAndFeaturesReadable$$anonfun$com$johnsnowlabs$nlp$ParamsAndFeaturesReadable$$onRead$1.apply(ParamsAndFeaturesReadable.scala:31) 在 com.johnsnowlabs.nlp.ParamsAndFeaturesReadable$$anonfun$com$johns$Apply$Apply (ParamsAndFeaturesReadable.scala:30) at scala.collection.mutable.ResizableArray$class.foreach(ResizableArray.scala:59) at scala.collection.mutable.ArrayBuffer.foreach(ArrayBuffer.scala:48) at com.johnsnowlabs.nlp。 ParamsAndFeaturesReadable$class.com$johnsnowlabs$nlp$ParamsAndFeaturesReadable$$onRead(ParamsAndFeaturesReadable.scala:30) 在 com.johnsnowlabs.nlp.ParamsAndFeaturesReadable$$anonfun$read$1.apply(ParamsAndFeaturesReadable.scala:30)at .ParamsAndFeaturesReadable$$anonfun$read$1.apply(ParamsAndFeaturesReadable.scala:41) 在 com.johnsnowlabs.nlp。FeaturesReader.load(ParamsAndFeaturesReadable.scala:19) at com.johnsnowlabs.nlp.FeaturesReader.load(ParamsAndFeaturesReadable.scala:8) at org.apache.spark.ml.util.DefaultParamsReader$.loadParamsInstance(ReadWrite.scala:652) at org.apache.spark.ml.Pipeline$SharedReadWrite$$anonfun$4.apply(Pipeline.scala:274) at org.apache.spark.ml.Pipeline$SharedReadWrite$$anonfun$4.apply(Pipeline.scala:272) at scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala:234) 在 scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala:234) 在 scala.collection.IndexedSeqOptimized$class。 foreach(IndexedSeqOptimized.scala:33) at scala.collection.mutable.ArrayOps$ofRef.foreach(ArrayOps.scala:186) at scala.collection.TraversableLike$class.map(TraversableLike.scala:234) at scala.collection.mutable .ArrayOps$ofRef.map(ArrayOps.scala:186)
在 org.apache.spark.ml.Pipeline$SharedReadWrite$.load(Pipeline.scala:272) 在 org.apache.spark.ml.PipelineModel$PipelineModelReader.load(Pipeline.scala:348) 在 org.apache.spark。 ml.PipelineModel$PipelineModelReader.load(Pipeline.scala:342) at com.johnsnowlabs.nlp.pretrained.ResourceDownloader$.downloadPipeline(ResourceDownloader.scala:135) at com.johnsnowlabs.nlp.pretrained.ResourceDownloader$.downloadPipeline( scala:129) 在 com.johnsnowlabs.nlp.pretrained.PretrainedPipelinenter code heree.(PretrainedPipeline.scala:14)
我查了一下,该管道中有一个 NER 模型。该 NER 模型是使用 TensorFlow 进行训练的,其中的一些contrib代码仅与基于 Unix 的操作系统(例如 Linux 和 macOS)兼容。这里有一个悬而未决的问题:
https://github.com/tensorflow/tensorflow/issues/26468
为此,他们发布了一些名为noncontrib. 您可以将管道名称更改为以下内容:
val pipeline = PretrainedPipeline("explain_document_dl_noncontrib", lang = "en")
Run Code Online (Sandbox Code Playgroud)
所有预训练管道的来源: https ://nlp.johnsnowlabs.com/docs/en/pipelines
全面披露:我是 Spark NLP 库的贡献者之一。
更新:自从 Spark NLP 发布以来2.4.0,所有模型和管道现在都是跨平台的: https: //github.com/JohnSnowLabs/spark-nlp-models
如果您使用 Spark NLP 2.4.0 版本,这应该适用于 Linux、macOS 和 Windows:
val pipeline = PretrainedPipeline("explain_document_dl_noncontrib", lang = "en")
Run Code Online (Sandbox Code Playgroud)
2022 年更新:除了 M1 和 aarch64 架构(目前)外,所有 5000 多个模型/管道都与 Windows(8、10 和 11)、Linux(Ubuntu、Debian、CentOS 等)和macOS 操作系统。Spark NLP 模型中心: https: //nlp.johnsnowlabs.com/models
| 归档时间: |
|
| 查看次数: |
1186 次 |
| 最近记录: |