相关疑难解决方法(0)

提交Spark作业 - 等待(TaskSchedulerImpl:不接受初始作业)

用于提交作业的API调用.响应状态 - 正在运行

在群集UI上 -

工人(奴隶) - 工人-20160712083825-172.31.17.189-59433是活着的

核心1用于2

内存1Gb中的6个使用过

运行应用程序

app-20160713130056-0020 - 等待5小时以来

核心 - 无限制

申请职位描述

活跃舞台

在/root/wordcount.py:23中的reduceByKey

待定阶段

takeOrdered at /root/wordcount.py:26

跑步司机 -

stderr log page for driver-20160713130051-0025 

WARN scheduler.TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources
Run Code Online (Sandbox Code Playgroud)

根据初始职位没有接受任何资源; 检查您的集群UI以确保工作人员已注册并且具有足够的资源 Slaves尚未启动 - 因此它没有资源.

但在我的情况下 - 奴隶1正在工作

根据Unable to Execute不仅仅是一个火花作业"初始作业还没有接受任何资源" 我使用的是deploy-mode = cluster(不是客户端)因为我有1个master 1 slave,并且通过Postman/Anywhere调用Submit API

群集还有可用的核心,RAM,内存 - 静止作业会抛出UI传达的错误

根据TaskSchedulerImpl:初始工作没有接受任何资源; 我分配了

~/spark-1.5.0/conf/spark-env.sh …
Run Code Online (Sandbox Code Playgroud)

api amazon-ec2 apache-spark

7
推荐指数
1
解决办法
3221
查看次数

标签 统计

amazon-ec2 ×1

apache-spark ×1

api ×1