rak*_*esh 5 apache-spark spark-streaming
我们在 Red Hat 4.4.7 上使用 Spark 1.6 和 JVM 1.6 来运行我们的 Spark 流应用程序/作业。我们的一些流作业使用复杂的状态,我们有 Scala 案例类来表示它们。但是在测试作业的升级周期时,我们遇到了一些问题,如下所示。由于流作业将永远运行,因此在设计易于升级的应用程序方面需要帮助。
我正在检查作业无法从检查点重新启动的确切用例。
在做了一些谷歌搜索之后,处理这个问题的一般准则似乎是,
由于信息分散在整个网络上,我感到很困惑,无法得出结论。以下是我的问题,
考虑像 jvm/scala/spark/etc 这样的环境升级的情况......无论发生任何变化,都不能保证检查点可以永远可靠。
检查点旨在仅帮助在不幸的故障/崩溃事件中进行恢复,而不是用作数据存储!
最好的替代方案是定期将数据刷新到可靠的存储(HDFS/DB/等)中,并在发生任何形式的升级时读取与初始 RDD 相同的数据。
归档时间: |
|
查看次数: |
692 次 |
最近记录: |