我想利用 Spark(它在 Databricks 上运行,我正在使用 PySpark)向 REST API 发送并行请求。现在我可能面临两种情况:
关于如何在节点之间分配请求有什么建议吗?
谢谢!
rest apache-spark pyspark databricks azure-databricks
apache-spark ×1
azure-databricks ×1
databricks ×1
pyspark ×1
rest ×1