chr*_*ill 5 mesos apache-spark spark-streaming
我在mesos上使用spark(使用kafka和cassandra)在启动时,我有很多错误(~100)然后evrything正常工作.错误属于这种类型:
[第0阶段:=======>(24 + 26)/ 50] [第3阶段:>(0 + 24)/ 24] 15/09/17 09:48:35错误ErrorMonitor:AssociationError [akka. tcp://sparkDriver@10.131.xx.xxx:58325] < - [akka.tcp://driverPropsFetcher@10.131.xx.xxx:59441]:错误[关闭地址:akka.tcp://driverPropsFetcher@10.131. xx.xxx:59441] [akka.remote.ShutDownAssociation:关闭地址:akka.tcp://driverPropsFetcher@10.131.xx.xxx:59441引起:akka.remote.transport.Transport $ InvalidAssociationException:远程系统终止了关联,因为它正在关闭.]
这个错误的原因是什么?我该如何解决?
日志似乎有噪音。
CDH 5.5.0 中的 Spark 1.5.0 也出现此问题,Cloudera 如下所述。
在 YARN 上使用 Spark 时,驱动程序会报告误导性错误消息 Spark 驱动程序会报告误导性错误消息,例如:
错误 ErrorMonitor: AssociationError [akka.tcp://sparkDriver@...] -> [akka.tcp://sparkExecutor@...]: 错误 [关联失败 [akka.tcp://sparkE xecutor@...] .]] [akka.remote.EndpointAssociationException:关联失败 [akka.tcp://sparkExecutor@...]]
解决方法:将以下属性添加到 Spark log4j 配置文件:log4j.logger.org.apache.spark.rpc.akka.ErrorMonitor=FATAL。请参阅配置 Spark 应用程序日志记录属性。
| 归档时间: |
|
| 查看次数: |
2212 次 |
| 最近记录: |