大量的ERROR ErrorMonitor:火花启动时的AssociationError

chr*_*ill 5 mesos apache-spark spark-streaming

我在mesos上使用spark(使用kafka和cassandra)在启动时,我有很多错误(~100)然后evrything正常工作.错误属于这种类型:

[第0阶段:=======>(24 + 26)/ 50] [第3阶段:>(0 + 24)/ 24] 15/09/17 09:48:35错误ErrorMonitor:AssociationError [akka. tcp://sparkDriver@10.131.xx.xxx:58325] < - [akka.tcp://driverPropsFetcher@10.131.xx.xxx:59441]:错误[关闭地址:akka.tcp://driverPropsFetcher@10.131. xx.xxx:59441] [akka.remote.ShutDownAssociation:关闭地址:akka.tcp://driverPropsFetcher@10.131.xx.xxx:59441引起:akka.remote.transport.Transport $ InvalidAssociationException:远程系统终止了关联,因为它正在关闭.]

这个错误的原因是什么?我该如何解决?

tab*_*ata 3

日志似乎有噪音。

CDH 5.5.0 中的 Spark 1.5.0 也出现此问题,Cloudera 如下所述。

http://www.cloudera.com/content/www/en-us/documentation/enterprise/latest/topics/cdh_rn_spark_ki.html

在 YARN 上使用 Spark 时,驱动程序会报告误导性错误消息 Spark 驱动程序会报告误导性错误消息,例如:

错误 ErrorMonitor: AssociationError [akka.tcp://sparkDriver@...] -> [akka.tcp://sparkExecutor@...]: 错误 [关联失败 [akka.tcp://sparkE xecutor@...] .]] [akka.remote.EndpointAssociationException:关联失败 [akka.tcp://sparkExecutor@...]]

解决方法:将以下属性添加到 Spark log4j 配置文件:log4j.logger.org.apache.spark.rpc.akka.ErrorMonitor=FATAL。请参阅配置 Spark 应用程序日志记录属性。