java.lang.ClassNotFoundException:org.apache.spark.sql.Dataset

oct*_*ian 4 scala apache-spark apache-spark-sql

运行使用Spark Dataset类型的Scala文件时,我得到以下堆栈跟踪:

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/sql/Dataset
    at java.lang.Class.getDeclaredMethods0(Native Method)
    at java.lang.Class.privateGetDeclaredMethods(Class.java:2701)
    at java.lang.Class.privateGetMethodRecursive(Class.java:3048)
    at java.lang.Class.getMethod0(Class.java:3018)
    at java.lang.Class.getMethod(Class.java:1784)
    at com.intellij.rt.execution.application.AppMain.main(AppMain.java:125)
Caused by: java.lang.ClassNotFoundException: org.apache.spark.sql.Dataset
    at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
    ... 6 more
Run Code Online (Sandbox Code Playgroud)

我发现这很奇怪,因为我有以下导入:

import org.apache.spark.sql._
Run Code Online (Sandbox Code Playgroud)

另外,在我build.sbt的内容中添加了以下内容libraryDependencies:

  "org.apache.spark" %% "spark-core" % "1.6.2" % "provided",
  "org.apache.spark" %% "spark-sql" % "1.6.2" % "provided",
Run Code Online (Sandbox Code Playgroud)

Sim*_*mon 23

如果您正在执行此独立操作,则可以尝试provided从依赖项中删除.提供意味着您在运行此应用程序时希望依赖项已经在类路径上.因此,如果您使用,Spark依赖项将不会包含在您的jar中provided.

  • 我在 Intellij 上运行时遇到类似的问题,但即使删除 "provided" 后,错误也不会消失。错误包括错误:发生 JNI 错误,请检查您的安装并重试线程“主”java.lang.NoClassDefFoundError 中的异常:org/apache/spark/sql/Dataset – Gakuo 刚刚编辑 (2认同)

Gal*_*ses 10

在 IntelliJ 2020.3.2 社区版中,转到菜单,run然后edit configurations。最后,在Modify options选择'Include dependencies with "Provided" scope'.


KP8*_*P87 7

在运行/调试配置中选中复选框“包含具有“提供”范围的依赖项。

下拉和复选框的图像