相关疑难解决方法(0)

如何在Docker上运行Spark?

无法在Docker上运行Apache Spark.

当我尝试从我的驱动程序通信到spark master时,我收到下一个错误:

15/04/03 13:08:28 WARN TaskSchedulerImpl:初始工作没有接受任何资源; 检查群集UI以确保工作人员已注册并具有足够的资源

docker apache-spark

10
推荐指数
2
解决办法
1万
查看次数

标签 统计

apache-spark ×1

docker ×1