小编nul*_*ull的帖子

使用Maven和IntelliJ时,"-Dmaven.multiModuleProjectDirectory未设置"问题

我花了很多时间试图弄清楚我做错了什么,并希望有人可以提供帮助.

我目前的设置是运行Maven 3.3.3(通过自制程序)和Java 1.8.IntelliJ 13是首选的IDE.

运行mvn -version结果如下:

Apache Maven 3.3.3 (7994120775791599e205a5524ec3e0dfe41d4a06; 2015-04-
22T12:57:37+01:00)
Maven home: /usr/local/Cellar/maven/3.3.3/libexec
Java version: 1.8.0_45, vendor: Oracle Corporation
Java home: /Library/Java/JavaVirtualMachines/jdk1.8.0_45.jdk/Contents/Home/jre
Default locale: en_US, platform encoding: UTF-8
OS name: "mac os x", version: "10.10.2", arch: "x86_64", family: "mac"
Run Code Online (Sandbox Code Playgroud)

我认为这意味着一切正常,但当我去我的IDE并尝试运行Maven项目时,我收到此错误:

/Library/Java/JavaVirtualMachines/jdk1.8.0_45.jdk/Contents/Home/bin/java -Dmaven.home=/usr/local/Cellar/maven/3.3.3/libexec -Dclassworlds.conf=/usr/local/Cellar/maven/3.3.3/libexec/bin/m2.conf -Didea.launcher.port=7539 "-Didea.launcher.bin.path=/Applications/IntelliJ IDEA 13.app/bin" -Dfile.encoding=UTF-8 -classpath "/usr/local/Cellar/maven/3.3.3/libexec/boot/plexus-classworlds-2.5.2.jar:/Applications/IntelliJ IDEA 13.app/lib/idea_rt.jar" com.intellij.rt.execution.application.AppMain org.codehaus.classworlds.Launcher -Didea.version=13.1.3
-Dmaven.multiModuleProjectDirectory system propery is not set. Check $M2_HOME environment variable and mvn script match.
Process finished with exit code 1 …
Run Code Online (Sandbox Code Playgroud)

java intellij-idea maven intellij-13

24
推荐指数
2
解决办法
2万
查看次数

AWS EMR - IntelliJ远程调试Spark应用程序

我想调试在AWS EMR集群上运行的Spark应用程序.如果我可以使用IntelliJ远程连接和调试它将是太棒了.我搜索过但发现很少.

有可能,如果是这样,有人可以指出我正确的方向吗?

谢谢.

remote-debugging intellij-idea amazon-web-services amazon-emr apache-spark

14
推荐指数
1
解决办法
2416
查看次数

可以缓存JSON以增加性能/加载时间吗?

我正在使用JSON文件自动填充下拉列表.它绝不是大规模的(3000行和不断增长),但刷新页面所花费的时间变得非常明显.

第一次加载页面时,将读取JSON,具体取决于用户选择的选项指示JSON的哪个部分用于填充下拉列表.

然后在每次刷新或菜单选择后加载它.是否有可能以某种方式缓存值以防止需要一次又一次地重新加载它?

谢谢.

编辑:更多信息:它本质上是一个单位转换器.JSON包含所有细节.例如,当用户选择"Temp"时,进行呼叫并填充列表.一旦转换完成后,你可以整天运行温度的转换,他们将被罚款,但每次用户所以现在改变转换类型长度,页面刷新,并花费的时间显着量.

javascript json

11
推荐指数
1
解决办法
3万
查看次数

ERROR [karma]:[TypeError:添加HTML输出时无法调用undefined的方法'push')

我正在使用业力和茉莉来进行一些单元测试.我想要一个html输出,而不是检查控制台/终端,发现这个:https://www.npmjs.org/package/karma-htmlfile-reporter,这完全符合我的要求.

当我运行它时,我收到一个错误:

    `ERROR [karma]: [TypeError: Cannot call method 'push' of undefined]
    TypeError: Cannot call method 'push' of undefined
    at onBrowserStart (/usr/local/lib/node_modules/karma/lib/reporters/base.js:14:20)
    at null.<anonymous> (/usr/local/lib/node_modules/karma/lib/events.js:15:22)
    at EventEmitter.emit (events.js:117:20)
    at onStart (/usr/local/lib/node_modules/karma/lib/browser.js:128:13)
    at Socket.<anonymous> (/usr/local/lib/node_modules/karma/lib/events.js:15:22)
    at Socket.EventEmitter.emit [as $emit] (events.js:117:20)
    at SocketNamespace.handlePacket (/usr/local/lib/node_modules/karma/node_modules/socket.io/lib/namespace.js:335:22)
    at Manager.onClientMessage (/usr/local/lib/node_modules/karma/node_modules/socket.io/lib/manager.js:488:38)
    at WebSocket.Transport.onMessage (/usr/local/lib/node_modules/karma/node_modules/socket.io/lib/transport.js:387:20)
    at Parser.<anonymous> (/usr/local/lib/node_modules/karma/node_modules/socket.io/lib/transports/websocket/hybi-16.js:39:10)
Run Code Online (Sandbox Code Playgroud)

我已经在谷歌寻找答案,但还没找到一个,如果我从配置中的报告中删除'html'它工作正常.我之前没有使用过茉莉/业力因此不确定在哪里寻求帮助.

配置的部分与报告有关:`

   reporters: ['progress', 'html'],

  htmlReporter: {
      outputFile: 'tests/units.html'
  },``
Run Code Online (Sandbox Code Playgroud)

谢谢你的帮助.

tdd node.js jasmine karma-runner

6
推荐指数
1
解决办法
2199
查看次数

Delphi优化:恒定循环

我刚刚在一个正在编写的程序中注意到了一些非常有趣的东西.我有一个简单的过程,用一个x类型的对象填充TStringlist.

我在跟踪一个问题时添加了一个断点,偶然发现这个问题,希望有人能够解释它为什么会发生这种情况,或者链接到相关文档,因为我找不到任何东西.

我的循环从0到11开始.我正在使用的指针在循环中初始化为nPtr:= 0但是当程序运行时,nPtr var从12变为1.然后我将var初始化为循环如代码片段所示,但同样的事情发生了.该变量在单元中没有其他地方使用.

我问过一位与我合作的人,他们说这是由于Delphi的优化,但我想知道为什么以及如何决定应该影响哪个循环.

谢谢你的帮助.

码:

procedure TUnit.ProcedureName;
var
    nPtr : Integer;
    obj : TObject;
begin
nPtr:=0;//added later
for nPtr := 0 to 11 do
    begin
    obj := TObject.Create(Self);
    slPeriodList.AddObject('X', obj);
    end;
end;
Run Code Online (Sandbox Code Playgroud)

delphi optimization performance for-loop compiler-optimization

6
推荐指数
1
解决办法
681
查看次数

Apache Spark - 内存异常错误-IntelliJ设置

当我尝试运行使用Apache Spark的测试时遇到以下异常:

    Exception encountered when invoking run on a nested suite - System memory 259522560 must be at least 4.718592E8. Please use a larger heap size.
java.lang.IllegalArgumentException: System memory 259522560 must be at least 4.718592E8. Please use a larger heap size.
Run Code Online (Sandbox Code Playgroud)

我可以通过更改配置中的vm otions来环绕错误,以便它具有:-Xms128m -Xmx512m -XX:MaxPermSize=300m -ea如中所示

http://apache-spark-user-list.1001560.n3.nabble.com/spark-1-6-Issue-td25893.html
Run Code Online (Sandbox Code Playgroud)

但是,我不想为每个测试改变那个设置,我希望它是全球性的.尝试了各种选择后,我发现自己在这里希望有人可以提供帮助.

我重新安装了IDEA 15并进行了更新.另外我运行64位jdk,更新了JAVA_HOME并使用了idea64 exe.

我还更新了vmoptions文件,并更新了上面的值,以便包括:

    -Xms3g
-Xmx3g
-XX:MaxPermSize=350m
-XX:ReservedCodeCacheSize=240m
-XX:+UseConcMarkSweepGC
-XX:SoftRefLRUPolicyMSPerMB=50
-ea
-Dsun.io.useCanonCaches=false
-Djava.net.preferIPv4Stack=true
-XX:+HeapDumpOnOutOfMemoryError
-XX:-OmitStackTraceInFastThrow
Run Code Online (Sandbox Code Playgroud)

我不太了解选项,所以可能会有冲突,但除此之外 - 我不知道我还能做些什么来做这个%^ $%^ $&*测试工作而无需手动更新内部的congif理念.

任何帮助表示感谢,谢谢.

java jvm intellij-idea virtual-machine apache-spark

6
推荐指数
1
解决办法
7120
查看次数

从提供的内容动态更改sbt构建文件中的库依赖关系

我们在scala应用程序中经常使用spark。如果我在本地测试,我的库依赖项是:

  libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.6.1",
 libraryDependencies += "org.apache.spark" % "spark-sql_2.10" % "1.6.1" ,
Run Code Online (Sandbox Code Playgroud)

而我正在构建要使用的jar来部署:

  libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.6.1" % "provided",
libraryDependencies += "org.apache.spark" % "spark-sql_2.10" % "1.6.1" % "provided",
Run Code Online (Sandbox Code Playgroud)

由于工作的性质,我们有时可能不得不在尝试不同的事情时来回翻转几次。不可避免的是,我有时会忘记更改构建文件并浪费时间,这不是很多时间,但足以促使我提出这个问题。

因此,是否有人知道让构建文件根据触发器更新提供的值的方式(除了记住“做对了”)?例如,也许读取测试或实时的配置选项?

提前致谢。

scala sbt sbt-assembly apache-spark

6
推荐指数
1
解决办法
731
查看次数

Spark EMR群集正在运行时删除执行程序,因为它们处于空闲状态

我有一个Spark应用程序,该应用程序在独立模式下运行良好,现在我试图使同一应用程序在AWS EMR集群上运行,但目前失败了。

该消息是我从未见过的消息,它暗示工人没有得到工作并且正在被关闭。

    **16/11/30 14:45:00 INFO ExecutorAllocationManager: Removing executor 3 because it has been idle for 60 seconds (new desired total will be 7)
16/11/30 14:45:00 INFO YarnClientSchedulerBackend: Requesting to kill executor(s) 2
16/11/30 14:45:00 INFO ExecutorAllocationManager: Removing executor 2 because it has been idle for 60 seconds (new desired total will be 6)
16/11/30 14:45:00 INFO YarnClientSchedulerBackend: Requesting to kill executor(s) 4
16/11/30 14:45:00 INFO ExecutorAllocationManager: Removing executor 4 because it has been idle for 60 seconds (new desired …
Run Code Online (Sandbox Code Playgroud)

amazon-web-services emr apache-spark apache-spark-2.0

6
推荐指数
0
解决办法
668
查看次数

应用程序 conf 中的 setMaster 和 sparkSubmit 上的 --master 标志之间的火花差异或冲突

我试图了解在运行 Spark 应用程序时设置 master 属性的重要性。

集群位置位于默认端口 7077。我正在从测试机运行此应用程序,它将命中 s3 存储桶。

目前应用程序中的 spark 配置为:

val sparkConf = new SparkConf()
.setMaster("spark://127.0.0.1:7077")  
Run Code Online (Sandbox Code Playgroud)

但我也在命令行上使用 spark submit 设置标志:

--master spark://127.0.0.1:7077
Run Code Online (Sandbox Code Playgroud)

那么,同时拥有这两个设置会导致问题吗?一个会被另一个覆盖吗?两者都有必要吗?

scala amazon-s3 apache-spark

5
推荐指数
1
解决办法
819
查看次数

防止用户多次点击“喜欢”的最佳方法

我正在为我正在处理的网站实施类似的功能。用户不必登录,他们可以喜欢或不喜欢特定页面。最后,我希望能够填充最喜欢的文章或故事列表。

我有一个非常简单的方法,目前使用 onclick javascript 函数通过 ajax 和 php 函数更新数据库。这工作正常。我想做的是防止用户向按钮发送垃圾邮件。
起初我想也许是获取 IP 地址,将其存储在数据库中,然后运行检查。有没有更好的办法?

html javascript php web

4
推荐指数
2
解决办法
4560
查看次数