jav*_*dba 5 maven apache-spark
我继承了依赖于的旧代码
org.apache.spark.LocalSparkContext
Run Code Online (Sandbox Code Playgroud)
在星火核心测试中。但是火花核心罐(正确地)不包括仅测试类。我无法确定火花测试类是否在何处具有自己的Maven工件。这里正确的方法是什么?
您可以test-jar通过添加添加对Spark 的依赖<type>test-jar</type>。例如,对于基于Scala 2.11的Spark 1.5.1:
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>1.5.1</version>
<type>test-jar</type>
<scope>test</scope>
</dependency>
Run Code Online (Sandbox Code Playgroud)
此依赖项提供了Spark的所有测试类,包括LocalSparkContext。
| 归档时间: |
|
| 查看次数: |
881 次 |
| 最近记录: |