Spark运行错误java.lang.NoClassDefFoundError:org/codehaus/jackson/annotate/JsonClass

Wen*_*ndy 3 json jackson playframework apache-spark

import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
import play.api.libs.json._
import java.util.Date
import javax.xml.bind.DatatypeConverter
object Test {
def main(args:Array[String]): Unit = {
    val logFile="test.txt"
    val conf=new SparkConf().setAppName("Json Test")
    val sc = new SparkContext(conf)
    try {
        val out= "output/test"
        val logData=sc.textFile(logFile,2).map(line => Json.parse(cleanTypo(line))).cache()

    } finally { 
        sc.stop()
    }
}
Run Code Online (Sandbox Code Playgroud)

由于有关Spark jackson冲突问题的说法,我使用mvn版本重建了Spark:use-latest-versions -Dincludes = org.codehaus.jackson:jackson-core-asl mvn versions:use-latest-versions -Dincludes = org .codehaus.jackson:杰克逊映射器,ASL

所以罐子已经更新到1.9.x但是我仍然有错误

15/03/02 03:12:19 ERROR Executor: Exception in task 0.0 in stage 0.0 (TID 0)
java.lang.NoClassDefFoundError: org/codehaus/jackson/annotate/JsonClass
at      org.codehaus.jackson.map.introspect.JacksonAnnotationIntrospector.findDeserializationType(JacksonAnnotationIntrospector.java:524)
at org.codehaus.jackson.map.deser.BasicDeserializerFactory.modifyTypeByAnnotation(BasicDeserializerFactory.java:732)
at org.codehaus.jackson.map.deser.BeanDeserializerFactory.createBeanDeserializer(BeanDeserializerFactory.java:427)
at org.codehaus.jackson.map.deser.StdDeserializerProvider._createDeserializer(StdDeserializerProvider.java:398)
at org.codehaus.jackson.map.deser.StdDeserializerProvider._createAndCache2(StdDeserializerProvider.java:307)
at org.codehaus.jackson.map.deser.StdDeserializerProvider._createAndCacheValueDeserializer(StdDeserializerProvider.java:287)
at org.codehaus.jackson.map.deser.StdDeserializerProvider.findValueDeserializer(StdDeserializerProvider.java:136)
at    org.codehaus.jackson.map.deser.StdDeserializerProvider.findTypedValueDeserializer(StdDeserializerProvider.java:157)
at     org.codehaus.jackson.map.ObjectMapper._findRootDeserializer(ObjectMapper.java:2468)
at org.codehaus.jackson.map.ObjectMapper._readValue(ObjectMapper.java:2383)
at org.codehaus.jackson.map.ObjectMapper.readValue(ObjectMapper.java:1094)
at play.api.libs.json.JacksonJson$.parseJsValue(JsValue.scala:477)
at play.api.libs.json.Json$.parse(Json.scala:16)
Run Code Online (Sandbox Code Playgroud)

use*_*563 5

我们遇到了几乎完全相同的问题.我们试图使用1.9.2,但也没有遇到这样的方法错误.

令人讨厌的是,不仅要处理1个版本的冲突,而且2.首先,Spark依赖于Hadoop(对于hdfs),它依赖于jackson json的1.8.x构建,这就是你所看到的冲突.Spark(至少1.2+)然后使用jackson 2.4.4核心,它实际上已移动到com.fasterxml.jackson.core,因此由于包名称不同,它实际上并不与1.8.x冲突.

因此,在您的情况下,如果您执行以下三项操作中的一项,则您的代

  1. 升级到2.4.x版本,该版本低于或等于2.4.4,因为实际依赖性将被火花替换为2.4.4(在撰写本文时)
  2. 降级到1.8.x,它与hadoop使用的1.8.x版本相差甚远或相等
  3. 在1.9.x版本下编译spark.我知道你提到这个并且它没有用,但是当我们尝试它成功时我们使用选项-Dcodehaus.jackson.version = 1.9.2运行构建

不幸的是,由于spark的性质以及它如何已经在类路径上拥有所有自己的内部依赖关系,所以会出现更多这样的问题,因此任何冲突的作业依赖都将无法解决.Spark已经做了一些依赖关系着色以避免像guava这样的包这个问题,但目前这还没有用jackson完成.