如何列出添加到 spark 上下文的 spark-packages?

Chr*_*now 4 apache-spark sparkr

是否可以列出已添加到 spark 会话中的 spark 包?

该类org.apache.spark.deploySparkSubmitArguments具有用于包的变量:

var packages: String = null
Run Code Online (Sandbox Code Playgroud)

假设这是一个 spark 包列表,是否可以通过 SparkContext 或其他地方获得?

Jam*_*Con 5

我使用以下方法来检索该信息: spark.sparkContext.listJars

例如:
$ spark-shell --packages elsevierlabs-os:spark-xml-utils:1.4.0

scala> spark.sparkContext.listJars.foreach(println)
spark://192.168.0.255:51167/jars/elsevierlabs-os_spark-xml-utils-1.4.0.jar
spark://192.168.0.255:51167/jars/commons-io_commons-io-2.4.jar
spark://192.168.0.255:51167/jars/commons-logging_commons-logging-1.2.jar
spark://192.168.0.255:51167/jars/org.apache.commons_commons-lang3-3.4.jar
spark://192.168.0.255:51167/jars/net.sf.saxon_Saxon-HE-9.6.0-7.jar
Run Code Online (Sandbox Code Playgroud)

在本例中,我加载了 spark-xml-utils 包,其他 jar 包作为依赖项加载。