小编Omk*_*kar的帖子

组装WAR的Maven错误:使用纯Java Based Configuration构建SpringMVC项目并且没有xml时需要webxml属性

我正在开发一个纯Java基于配置的Spring MVC项目.当我进行Maven清理安装时,我收到以下错误.

无法在项目上执行目标org.apache.maven.plugins:maven-war-plugin:2.2:war(default-war)SpringMVC-ShoppingCart:组装WAR时出错:需要webxml属性(或预先存在的WEB-INF/web .xml如果在更新模式下执行) - > [帮助1]

该错误表示web.xml缺少,但由于我使用的是基于纯Java的配置,因此我没有.

如何确保项目构建和创建war文件没有web.xml

java spring-mvc maven maven-assembly-plugin maven-war-plugin

15
推荐指数
1
解决办法
3万
查看次数

Spark Dataframe Write to CSV在独立群集模式下创建_temporary目录文件

spark job在一个有2个工作节点的集群中运行!我使用下面的代码(spark java)将计算出的数据帧保存为csv到工作节点.

dataframe.write().option("header","false").mode(SaveMode.Overwrite).csv(outputDirPath); 我试图了解spark如何在每个工作节点上写入多个部分文件.

Run1)worker1part filesSUCCESS; worker2_temporarty/task*/part*每个任务都运行部分文件.

Run2)worker1有部分文件和_temporary目录; worker2具有multiple part files

谁能帮助我理解为什么会出现这种行为?1)我是否应该将记录outputDir/_temporary作为输出文件的一部分与part files in outputDir?一起考虑?

2)_temporary 在作业运行后是否应该删除dir并将part文件移动到outputDir

3)为什么不能直接在输出目录下创建零件文件?

coalesce(1)并且repartition(1)不能成为选项,因为outputDir文件本身就在附近500GB

Spark 2.0.2. 2.1.3Java 8, no HDFS

java csv dataframe apache-spark apache-spark-sql

7
推荐指数
1
解决办法
1592
查看次数

用Java 8中的功能抽象try / catch

我最近发现自己写了许多以下形式的块:

try {
    return Optional.of(thing.doSomething(arg));
} catch (Exception e) {
    System.out.println(e.getMessage());
    return Optional.empty();
}
Run Code Online (Sandbox Code Playgroud)

这是必要的,因为某些方法表示它们可能会引发异常,并且如果我不将这些方法包含在try / catch块中,则Eclipse会对我大吼大叫。

所以我这样写:

public static <A, T> Optional<T> tryOpt (Function<A, T> f, A arg) {
    try {
        return Optional.of(f.apply(arg));
    } catch (Exception e) {
        System.out.println(e.getMessage());
        return Optional.empty();
    }
}
Run Code Online (Sandbox Code Playgroud)

因此,我传递给tryOpt的任何函数都包含在try / catch块中并安全地执行,并且其结果作为Optional返回。但是Eclipse仍然对我大吼大叫:

return tryOpt(
          ((x) -> thing.doSomething(x)),
          arg);
Run Code Online (Sandbox Code Playgroud)

我的问题是,有没有什么办法,我告诉Eclipse和/或Java编译器,它的好,那我间接地包围的try / catch块中的违规方法?还是我只是误解了Java的工作原理,在这种情况下,有人会启发我吗?或者,另一方面,在这种情况下,我可以安全地忽略Eclipse的红线警告吗?

java eclipse functional-programming java-8

4
推荐指数
1
解决办法
1358
查看次数

在使用基于纯Java的配置而不是web.xml开发spring mvc应用程序时如何设置welcome-file?

我正在使用Spring MVC开发一个Web应用程序,它基于纯Java,没有web.xml配置.我编写了下面的类来加载bean并设置url模式.如何设置welcome-file?

public class MyAppWebAppIntializer implements WebApplicationInitializer {
    @Override
    public void onStartup(ServletContext servletContext) throws ServletException {
        AnnotationConfigWebApplicationContext appCtx = new AnnotationConfigWebApplicationContext();
        appCtx.register(ApplicationContextConfig.class);

        Dynamic dispatcher = servletContext.addServlet(
                "SpringDispatcher", new DispatcherServlet(appCtx));
        dispatcher.setLoadOnStartup(1);
        dispatcher.addMapping("/");
    }
}
Run Code Online (Sandbox Code Playgroud)

configuration spring spring-mvc welcome-file

2
推荐指数
1
解决办法
3014
查看次数

Windows 7上的Apache Spark安装32位

我刚刚开始学习apache spark.我做的第一件事是我试图spark在我的机器上安装.我下载了预制火花1.5.2 hadoop 2.6.当我跑,spark shell我得到了跟随错误

java.lang.RuntimeException: java.lang.NullPointerException
        at     org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:522)
        at org.apache.spark.sql.hive.client.ClientWrapper.<init>    (ClientWrapper.scala:171)
    at     org.apache.spark.sql.hive.HiveContext.executionHive$lzycompute(HiveContext.scala    :163)
        at     org.apache.spark.sql.hive.HiveContext.executionHive(HiveContext.scala:161)
        at org.apache.spark.sql.hive.HiveContext.<init>(HiveContext.scala:168)
        at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
        at sun.reflect.NativeConstructorAccessorImpl.newInstance(Unknown Source)
        at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(Unknown Source)
    at java.lang.reflect.Constructor.newInstance(Unknown Source)
    at org.apache.spark.repl.SparkILoop.createSQLContext(SparkILoop.scala:1028)
    at $iwC$$iwC.<init>(<console>:9)
    at $iwC.<init>(<console>:18)
    at <init>(<console>:20)
    at .<init>(<console>:24)
    at .<clinit>(<console>)
    at .<init>(<console>:7)
    at .<clinit>(<console>)
    at $print(<console>)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(Unknown Source)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(Unknown Source)
    at java.lang.reflect.Method.invoke(Unknown Source)
    at org.apache.spark.repl.SparkIMain$ReadEvalPrint.call(SparkIMain.scala:1065)
    at org.apache.spark.repl.SparkIMain$Request.loadAndRun(SparkIMain.scala:1340)
    at org.apache.spark.repl.SparkIMain.loadAndRunReq$1(SparkIMain.scala:840)
    at org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:871)
    at org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:819)
    at org.apache.spark.repl.SparkILoop.reallyInterpret$1(SparkILoop.scala:857) …
Run Code Online (Sandbox Code Playgroud)

installation hadoop 32-bit windows-7 apache-spark

1
推荐指数
1
解决办法
3699
查看次数