小编Fel*_*ezR的帖子

使用 Spark(Databricks) 的并行 REST API 请求

我想利用 Spark(它在 Databricks 上运行,我正在使用 PySpark)向 REST API 发送并行请求。现在我可能面临两种情况:

  • REST API 1:返回 ~MB 量级的数据
  • REST API 2:返回~KB量级的数据。

关于如何在节点之间分配请求有什么建议吗?

谢谢!

rest apache-spark pyspark databricks azure-databricks

6
推荐指数
1
解决办法
6929
查看次数