the*_*w89 6 java maven apache-spark
我必须按照本教程使用maven为我的Apache Spark应用程序创建一个超级jar.
我已经在pom中设置了所有Spark Dependencies <scope>provided</scope>.这非常有效,但现在当我在本地运行应用程序时,我收到错误的Spark依赖项错误.
目前我不得不provided从pom中删除标签.
如何在构建应用程序以供发布时,如何提供提供的spark依赖项?
我使用Intellij作为IDE来开发应用程序.
您可以创建单独的 Maven 配置文件。
最好的选择是在 POM 中包含 dependencyManagment 部分,您将在其中指定版本,然后在配置文件中您将只有 groupId +artifactId+scope
例如:
<profile>
    <id>dev</id>
    <activation>
        <activeByDefault>false</activeByDefault>
    </activation>
    <dependencies>
    <!-- Here Spark deps without provided -->
        <dependency>
            <groupId>...</groupId>
            <artifactId>...</artifactId>
            <scope>compile</scope>
        </dependency>
    </dependencies>
</profile>
<profile>
    <id>prod</id>
    <dependencies>
    <!-- Here Spark deps with provided -->
        <dependency>
            <groupId>...</groupId>
            <artifactId>...</artifactId>
            <scope>provided</scope>
        </dependency>
    </dependencies>
</profile>
Run Code Online (Sandbox Code Playgroud)
        |   归档时间:  |  
           
  |  
        
|   查看次数:  |  
           116 次  |  
        
|   最近记录:  |