无法在Docker上运行Apache Spark.
当我尝试从我的驱动程序通信到spark master时,我收到下一个错误:
15/04/03 13:08:28 WARN TaskSchedulerImpl:初始工作没有接受任何资源; 检查群集UI以确保工作人员已注册并具有足够的资源
docker apache-spark
apache-spark ×1
docker ×1