小编use*_*654的帖子

Spark结构化流媒体:多个接收器

  1. 我们正在使用结构化流媒体从Kafka消费并将处理后的数据集写入s3.

    我们还希望将处理后的数据写入Kafka继续前进,是否可以通过相同的流式查询来完成?(火花版2.1.1)

  2. 在日志中,我看到了流式查询进度输出,并且我从日志中获得了一个示例持续时间JSON,有人可以提供更清晰的区别addBatch和之间的区别getBatch吗?

  3. TriggerExecution - 处理获取的数据和写入接收器的时间是多少?

    "durationMs" : {
        "addBatch" : 2263426,
        "getBatch" : 12,
        "getOffset" : 273,
       "queryPlanning" : 13,
        "triggerExecution" : 2264288,
        "walCommit" : 552
    },
    
    Run Code Online (Sandbox Code Playgroud)

apache-spark spark-structured-streaming

10
推荐指数
1
解决办法
4399
查看次数