Wen*_*ndy 3 json jackson playframework apache-spark
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
import play.api.libs.json._
import java.util.Date
import javax.xml.bind.DatatypeConverter
object Test {
def main(args:Array[String]): Unit = {
val logFile="test.txt"
val conf=new SparkConf().setAppName("Json Test")
val sc = new SparkContext(conf)
try {
val out= "output/test"
val logData=sc.textFile(logFile,2).map(line => Json.parse(cleanTypo(line))).cache()
} finally {
sc.stop()
}
}
Run Code Online (Sandbox Code Playgroud)
由于有关Spark jackson冲突问题的说法,我使用mvn版本重建了Spark:use-latest-versions -Dincludes = org.codehaus.jackson:jackson-core-asl mvn versions:use-latest-versions -Dincludes = org .codehaus.jackson:杰克逊映射器,ASL
所以罐子已经更新到1.9.x但是我仍然有错误
15/03/02 03:12:19 ERROR Executor: Exception in task 0.0 in stage 0.0 (TID 0)
java.lang.NoClassDefFoundError: org/codehaus/jackson/annotate/JsonClass
at org.codehaus.jackson.map.introspect.JacksonAnnotationIntrospector.findDeserializationType(JacksonAnnotationIntrospector.java:524)
at org.codehaus.jackson.map.deser.BasicDeserializerFactory.modifyTypeByAnnotation(BasicDeserializerFactory.java:732)
at org.codehaus.jackson.map.deser.BeanDeserializerFactory.createBeanDeserializer(BeanDeserializerFactory.java:427)
at org.codehaus.jackson.map.deser.StdDeserializerProvider._createDeserializer(StdDeserializerProvider.java:398)
at org.codehaus.jackson.map.deser.StdDeserializerProvider._createAndCache2(StdDeserializerProvider.java:307)
at org.codehaus.jackson.map.deser.StdDeserializerProvider._createAndCacheValueDeserializer(StdDeserializerProvider.java:287)
at org.codehaus.jackson.map.deser.StdDeserializerProvider.findValueDeserializer(StdDeserializerProvider.java:136)
at org.codehaus.jackson.map.deser.StdDeserializerProvider.findTypedValueDeserializer(StdDeserializerProvider.java:157)
at org.codehaus.jackson.map.ObjectMapper._findRootDeserializer(ObjectMapper.java:2468)
at org.codehaus.jackson.map.ObjectMapper._readValue(ObjectMapper.java:2383)
at org.codehaus.jackson.map.ObjectMapper.readValue(ObjectMapper.java:1094)
at play.api.libs.json.JacksonJson$.parseJsValue(JsValue.scala:477)
at play.api.libs.json.Json$.parse(Json.scala:16)
Run Code Online (Sandbox Code Playgroud)
我们遇到了几乎完全相同的问题.我们试图使用1.9.2,但也没有遇到这样的方法错误.
令人讨厌的是,不仅要处理1个版本的冲突,而且2.首先,Spark依赖于Hadoop(对于hdfs),它依赖于jackson json的1.8.x构建,这就是你所看到的冲突.Spark(至少1.2+)然后使用jackson 2.4.4核心,它实际上已移动到com.fasterxml.jackson.core,因此由于包名称不同,它实际上并不与1.8.x冲突.
因此,在您的情况下,如果您执行以下三项操作中的一项,则您的代
不幸的是,由于spark的性质以及它如何已经在类路径上拥有所有自己的内部依赖关系,所以会出现更多这样的问题,因此任何冲突的作业依赖都将无法解决.Spark已经做了一些依赖关系着色以避免像guava这样的包这个问题,但目前这还没有用jackson完成.
| 归档时间: |
|
| 查看次数: |
2522 次 |
| 最近记录: |