我正在开发一个纯Java基于配置的Spring MVC项目.当我进行Maven清理安装时,我收到以下错误.
无法在项目上执行目标org.apache.maven.plugins:maven-war-plugin:2.2:war(default-war)SpringMVC-ShoppingCart:组装WAR时出错:需要webxml属性(或预先存在的WEB-INF/web .xml如果在更新模式下执行) - > [帮助1]
该错误表示web.xml缺少,但由于我使用的是基于纯Java的配置,因此我没有.
如何确保项目构建和创建war文件没有web.xml?
java spring-mvc maven maven-assembly-plugin maven-war-plugin
我spark job在一个有2个工作节点的集群中运行!我使用下面的代码(spark java)将计算出的数据帧保存为csv到工作节点.
dataframe.write().option("header","false").mode(SaveMode.Overwrite).csv(outputDirPath);
我试图了解spark如何在每个工作节点上写入多个部分文件.
Run1)worker1有part files和SUCCESS; worker2让_temporarty/task*/part*每个任务都运行部分文件.
Run2)worker1有部分文件和_temporary目录; worker2具有multiple part files
谁能帮助我理解为什么会出现这种行为?1)我是否应该将记录outputDir/_temporary作为输出文件的一部分与part files in outputDir?一起考虑?
2)_temporary 在作业运行后是否应该删除dir并将part文件移动到outputDir?
3)为什么不能直接在输出目录下创建零件文件?
coalesce(1)并且repartition(1)不能成为选项,因为outputDir文件本身就在附近500GB
Spark 2.0.2. 2.1.3 和 Java 8, no HDFS
我最近发现自己写了许多以下形式的块:
try {
return Optional.of(thing.doSomething(arg));
} catch (Exception e) {
System.out.println(e.getMessage());
return Optional.empty();
}
Run Code Online (Sandbox Code Playgroud)
这是必要的,因为某些方法表示它们可能会引发异常,并且如果我不将这些方法包含在try / catch块中,则Eclipse会对我大吼大叫。
所以我这样写:
public static <A, T> Optional<T> tryOpt (Function<A, T> f, A arg) {
try {
return Optional.of(f.apply(arg));
} catch (Exception e) {
System.out.println(e.getMessage());
return Optional.empty();
}
}
Run Code Online (Sandbox Code Playgroud)
因此,我传递给tryOpt的任何函数都包含在try / catch块中并安全地执行,并且其结果作为Optional返回。但是Eclipse仍然对我大吼大叫:
return tryOpt(
((x) -> thing.doSomething(x)),
arg);
Run Code Online (Sandbox Code Playgroud)
我的问题是,有没有什么办法,我告诉Eclipse和/或Java编译器,它的好,那我我间接地包围的try / catch块中的违规方法?还是我只是误解了Java的工作原理,在这种情况下,有人会启发我吗?或者,另一方面,在这种情况下,我可以安全地忽略Eclipse的红线警告吗?
我正在使用Spring MVC开发一个Web应用程序,它基于纯Java,没有web.xml配置.我编写了下面的类来加载bean并设置url模式.如何设置welcome-file?
public class MyAppWebAppIntializer implements WebApplicationInitializer {
@Override
public void onStartup(ServletContext servletContext) throws ServletException {
AnnotationConfigWebApplicationContext appCtx = new AnnotationConfigWebApplicationContext();
appCtx.register(ApplicationContextConfig.class);
Dynamic dispatcher = servletContext.addServlet(
"SpringDispatcher", new DispatcherServlet(appCtx));
dispatcher.setLoadOnStartup(1);
dispatcher.addMapping("/");
}
}
Run Code Online (Sandbox Code Playgroud) 我刚刚开始学习apache spark.我做的第一件事是我试图spark在我的机器上安装.我下载了预制火花1.5.2 hadoop 2.6.当我跑,spark shell我得到了跟随错误
java.lang.RuntimeException: java.lang.NullPointerException
at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:522)
at org.apache.spark.sql.hive.client.ClientWrapper.<init> (ClientWrapper.scala:171)
at org.apache.spark.sql.hive.HiveContext.executionHive$lzycompute(HiveContext.scala :163)
at org.apache.spark.sql.hive.HiveContext.executionHive(HiveContext.scala:161)
at org.apache.spark.sql.hive.HiveContext.<init>(HiveContext.scala:168)
at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
at sun.reflect.NativeConstructorAccessorImpl.newInstance(Unknown Source)
at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(Unknown Source)
at java.lang.reflect.Constructor.newInstance(Unknown Source)
at org.apache.spark.repl.SparkILoop.createSQLContext(SparkILoop.scala:1028)
at $iwC$$iwC.<init>(<console>:9)
at $iwC.<init>(<console>:18)
at <init>(<console>:20)
at .<init>(<console>:24)
at .<clinit>(<console>)
at .<init>(<console>:7)
at .<clinit>(<console>)
at $print(<console>)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(Unknown Source)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(Unknown Source)
at java.lang.reflect.Method.invoke(Unknown Source)
at org.apache.spark.repl.SparkIMain$ReadEvalPrint.call(SparkIMain.scala:1065)
at org.apache.spark.repl.SparkIMain$Request.loadAndRun(SparkIMain.scala:1340)
at org.apache.spark.repl.SparkIMain.loadAndRunReq$1(SparkIMain.scala:840)
at org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:871)
at org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:819)
at org.apache.spark.repl.SparkILoop.reallyInterpret$1(SparkILoop.scala:857) …Run Code Online (Sandbox Code Playgroud) java ×3
apache-spark ×2
spring-mvc ×2
32-bit ×1
csv ×1
dataframe ×1
eclipse ×1
hadoop ×1
installation ×1
java-8 ×1
maven ×1
spring ×1
welcome-file ×1
windows-7 ×1