Moh*_*itt 5 garbage-collection performance-testing apache-spark spark-streaming
我有一个Kafka
基于Spark Streaming
每5分钟运行一次的应用程序.查看运行5天后的统计数据,有一些观察结果:
问题:
Processing Time
即使事件数量或多或少相同(在最后一个低谷期间)已大幅增加?GC logs
在每个处理周期结束时,我差不多有70个.这是正常的? processing time
以可接受的延迟保持?这实际上取决于应用程序。调试此问题时我的处理方法如下:
spark.cleaner.ttl
,但最好确保在不再需要时取消缓存所有资源。spark.streaming.ui.retainedBatches
参数)。我的 Spark Streaming 应用程序(Spark v1.6、v2.1.1、v2.2.0)运行了几天,性能没有任何下降,因此肯定存在一些可解决的问题。
归档时间: |
|
查看次数: |
584 次 |
最近记录: |