sir*_*ine 7 hadoop scala sbt apache-spark
我有一个应用程序 Spark-scala,我试图显示一条简单的消息“你好我的应用程序”。当我通过 sbt compile 编译它时很好,我也通过 sbt run 运行它很好,我成功地显示了我的消息,但他显示了错误;像这样:
Hello my application!
16/11/27 15:17:11 ERROR Utils: uncaught error in thread SparkListenerBus, stopping SparkContext
java.lang.InterruptedException
ERROR ContextCleaner: Error in cleaning thread
java.lang.InterruptedException
at org.apache.spark.ContextCleaner$$anon$1.run(ContextCleaner.scala:67)
16/11/27 15:17:11 INFO SparkUI: Stopped Spark web UI at http://10.0.2.15:4040
[success] Total time: 13 s, completed Nov 27, 2016 3:17:12 PM
16/11/27 15:17:12 INFO DiskBlockManager: Shutdown hook called
Run Code Online (Sandbox Code Playgroud)
看不懂,好不好!此外,当我尝试在运行后加载我的文件 jar 时,他也显示了一个错误:
我的命令行看起来像:
spark-submit "appfilms" --master local[4] target/scala-2.11/system-of-recommandation_2.11-1.0.jar
Run Code Online (Sandbox Code Playgroud)
错误是:
Error: Cannot load main class from JAR file:/root/projectFilms/appfilms
Run with --help for usage help or --verbose for debug output
16/11/27 15:24:11 INFO Utils: Shutdown hook called
Run Code Online (Sandbox Code Playgroud)
请你能回答我吗!
错误是由于 SparkContext 没有停止这一事实,这在高于 Spark 2.x 的版本中是必需的。应通过SparkContext.stop()
, 或停止此操作以防止出现此错误sc.stop()
。解决此错误的灵感来自于自己的经验和以下来源:Spark Context , Spark Listener Bus error
归档时间: |
|
查看次数: |
27530 次 |
最近记录: |