我花了很多时间试图弄清楚我做错了什么,并希望有人可以提供帮助.
我目前的设置是运行Maven 3.3.3(通过自制程序)和Java 1.8.IntelliJ 13是首选的IDE.
运行mvn -version结果如下:
Apache Maven 3.3.3 (7994120775791599e205a5524ec3e0dfe41d4a06; 2015-04-
22T12:57:37+01:00)
Maven home: /usr/local/Cellar/maven/3.3.3/libexec
Java version: 1.8.0_45, vendor: Oracle Corporation
Java home: /Library/Java/JavaVirtualMachines/jdk1.8.0_45.jdk/Contents/Home/jre
Default locale: en_US, platform encoding: UTF-8
OS name: "mac os x", version: "10.10.2", arch: "x86_64", family: "mac"
Run Code Online (Sandbox Code Playgroud)
我认为这意味着一切正常,但当我去我的IDE并尝试运行Maven项目时,我收到此错误:
/Library/Java/JavaVirtualMachines/jdk1.8.0_45.jdk/Contents/Home/bin/java -Dmaven.home=/usr/local/Cellar/maven/3.3.3/libexec -Dclassworlds.conf=/usr/local/Cellar/maven/3.3.3/libexec/bin/m2.conf -Didea.launcher.port=7539 "-Didea.launcher.bin.path=/Applications/IntelliJ IDEA 13.app/bin" -Dfile.encoding=UTF-8 -classpath "/usr/local/Cellar/maven/3.3.3/libexec/boot/plexus-classworlds-2.5.2.jar:/Applications/IntelliJ IDEA 13.app/lib/idea_rt.jar" com.intellij.rt.execution.application.AppMain org.codehaus.classworlds.Launcher -Didea.version=13.1.3
-Dmaven.multiModuleProjectDirectory system propery is not set. Check $M2_HOME environment variable and mvn script match.
Process finished with exit code 1 …Run Code Online (Sandbox Code Playgroud) 我想调试在AWS EMR集群上运行的Spark应用程序.如果我可以使用IntelliJ远程连接和调试它将是太棒了.我搜索过但发现很少.
有可能,如果是这样,有人可以指出我正确的方向吗?
谢谢.
remote-debugging intellij-idea amazon-web-services amazon-emr apache-spark
我正在使用JSON文件自动填充下拉列表.它绝不是大规模的(3000行和不断增长),但刷新页面所花费的时间变得非常明显.
第一次加载页面时,将读取JSON,具体取决于用户选择的选项指示JSON的哪个部分用于填充下拉列表.
然后在每次刷新或菜单选择后加载它.是否有可能以某种方式缓存值以防止需要一次又一次地重新加载它?
谢谢.
编辑:更多信息:它本质上是一个单位转换器.JSON包含所有细节.例如,当用户选择"Temp"时,进行呼叫并填充列表.一旦转换完成后,你可以整天运行温度的转换,他们将被罚款,但每次用户所以现在改变转换类型长度,页面刷新,并花费的时间显着量.
我正在使用业力和茉莉来进行一些单元测试.我想要一个html输出,而不是检查控制台/终端,发现这个:https://www.npmjs.org/package/karma-htmlfile-reporter,这完全符合我的要求.
当我运行它时,我收到一个错误:
`ERROR [karma]: [TypeError: Cannot call method 'push' of undefined]
TypeError: Cannot call method 'push' of undefined
at onBrowserStart (/usr/local/lib/node_modules/karma/lib/reporters/base.js:14:20)
at null.<anonymous> (/usr/local/lib/node_modules/karma/lib/events.js:15:22)
at EventEmitter.emit (events.js:117:20)
at onStart (/usr/local/lib/node_modules/karma/lib/browser.js:128:13)
at Socket.<anonymous> (/usr/local/lib/node_modules/karma/lib/events.js:15:22)
at Socket.EventEmitter.emit [as $emit] (events.js:117:20)
at SocketNamespace.handlePacket (/usr/local/lib/node_modules/karma/node_modules/socket.io/lib/namespace.js:335:22)
at Manager.onClientMessage (/usr/local/lib/node_modules/karma/node_modules/socket.io/lib/manager.js:488:38)
at WebSocket.Transport.onMessage (/usr/local/lib/node_modules/karma/node_modules/socket.io/lib/transport.js:387:20)
at Parser.<anonymous> (/usr/local/lib/node_modules/karma/node_modules/socket.io/lib/transports/websocket/hybi-16.js:39:10)
Run Code Online (Sandbox Code Playgroud)
我已经在谷歌寻找答案,但还没找到一个,如果我从配置中的报告中删除'html'它工作正常.我之前没有使用过茉莉/业力因此不确定在哪里寻求帮助.
配置的部分与报告有关:`
reporters: ['progress', 'html'],
htmlReporter: {
outputFile: 'tests/units.html'
},``
Run Code Online (Sandbox Code Playgroud)
谢谢你的帮助.
我刚刚在一个正在编写的程序中注意到了一些非常有趣的东西.我有一个简单的过程,用一个x类型的对象填充TStringlist.
我在跟踪一个问题时添加了一个断点,偶然发现这个问题,希望有人能够解释它为什么会发生这种情况,或者链接到相关文档,因为我找不到任何东西.
我的循环从0到11开始.我正在使用的指针在循环中初始化为nPtr:= 0但是当程序运行时,nPtr var从12变为1.然后我将var初始化为循环如代码片段所示,但同样的事情发生了.该变量在单元中没有其他地方使用.
我问过一位与我合作的人,他们说这是由于Delphi的优化,但我想知道为什么以及如何决定应该影响哪个循环.
谢谢你的帮助.
码:
procedure TUnit.ProcedureName;
var
nPtr : Integer;
obj : TObject;
begin
nPtr:=0;//added later
for nPtr := 0 to 11 do
begin
obj := TObject.Create(Self);
slPeriodList.AddObject('X', obj);
end;
end;
Run Code Online (Sandbox Code Playgroud) delphi optimization performance for-loop compiler-optimization
当我尝试运行使用Apache Spark的测试时遇到以下异常:
Exception encountered when invoking run on a nested suite - System memory 259522560 must be at least 4.718592E8. Please use a larger heap size.
java.lang.IllegalArgumentException: System memory 259522560 must be at least 4.718592E8. Please use a larger heap size.
Run Code Online (Sandbox Code Playgroud)
我可以通过更改配置中的vm otions来环绕错误,以便它具有:-Xms128m -Xmx512m -XX:MaxPermSize=300m -ea如中所示
http://apache-spark-user-list.1001560.n3.nabble.com/spark-1-6-Issue-td25893.html
Run Code Online (Sandbox Code Playgroud)
但是,我不想为每个测试改变那个设置,我希望它是全球性的.尝试了各种选择后,我发现自己在这里希望有人可以提供帮助.
我重新安装了IDEA 15并进行了更新.另外我运行64位jdk,更新了JAVA_HOME并使用了idea64 exe.
我还更新了vmoptions文件,并更新了上面的值,以便包括:
-Xms3g
-Xmx3g
-XX:MaxPermSize=350m
-XX:ReservedCodeCacheSize=240m
-XX:+UseConcMarkSweepGC
-XX:SoftRefLRUPolicyMSPerMB=50
-ea
-Dsun.io.useCanonCaches=false
-Djava.net.preferIPv4Stack=true
-XX:+HeapDumpOnOutOfMemoryError
-XX:-OmitStackTraceInFastThrow
Run Code Online (Sandbox Code Playgroud)
我不太了解选项,所以可能会有冲突,但除此之外 - 我不知道我还能做些什么来做这个%^ $%^ $&*测试工作而无需手动更新内部的congif理念.
任何帮助表示感谢,谢谢.
我们在scala应用程序中经常使用spark。如果我在本地测试,我的库依赖项是:
libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.6.1",
libraryDependencies += "org.apache.spark" % "spark-sql_2.10" % "1.6.1" ,
Run Code Online (Sandbox Code Playgroud)
而我正在构建要使用的jar来部署:
libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.6.1" % "provided",
libraryDependencies += "org.apache.spark" % "spark-sql_2.10" % "1.6.1" % "provided",
Run Code Online (Sandbox Code Playgroud)
由于工作的性质,我们有时可能不得不在尝试不同的事情时来回翻转几次。不可避免的是,我有时会忘记更改构建文件并浪费时间,这不是很多时间,但足以促使我提出这个问题。
因此,是否有人知道让构建文件根据触发器更新提供的值的方式(除了记住“做对了”)?例如,也许读取测试或实时的配置选项?
提前致谢。
我有一个Spark应用程序,该应用程序在独立模式下运行良好,现在我试图使同一应用程序在AWS EMR集群上运行,但目前失败了。
该消息是我从未见过的消息,它暗示工人没有得到工作并且正在被关闭。
**16/11/30 14:45:00 INFO ExecutorAllocationManager: Removing executor 3 because it has been idle for 60 seconds (new desired total will be 7)
16/11/30 14:45:00 INFO YarnClientSchedulerBackend: Requesting to kill executor(s) 2
16/11/30 14:45:00 INFO ExecutorAllocationManager: Removing executor 2 because it has been idle for 60 seconds (new desired total will be 6)
16/11/30 14:45:00 INFO YarnClientSchedulerBackend: Requesting to kill executor(s) 4
16/11/30 14:45:00 INFO ExecutorAllocationManager: Removing executor 4 because it has been idle for 60 seconds (new desired …Run Code Online (Sandbox Code Playgroud) 我试图了解在运行 Spark 应用程序时设置 master 属性的重要性。
集群位置位于默认端口 7077。我正在从测试机运行此应用程序,它将命中 s3 存储桶。
目前应用程序中的 spark 配置为:
val sparkConf = new SparkConf()
.setMaster("spark://127.0.0.1:7077")
Run Code Online (Sandbox Code Playgroud)
但我也在命令行上使用 spark submit 设置标志:
--master spark://127.0.0.1:7077
Run Code Online (Sandbox Code Playgroud)
那么,同时拥有这两个设置会导致问题吗?一个会被另一个覆盖吗?两者都有必要吗?
我正在为我正在处理的网站实施类似的功能。用户不必登录,他们可以喜欢或不喜欢特定页面。最后,我希望能够填充最喜欢的文章或故事列表。
我有一个非常简单的方法,目前使用 onclick javascript 函数通过 ajax 和 php 函数更新数据库。这工作正常。我想做的是防止用户向按钮发送垃圾邮件。
起初我想也许是获取 IP 地址,将其存储在数据库中,然后运行检查。有没有更好的办法?
apache-spark ×5
java ×2
javascript ×2
scala ×2
amazon-emr ×1
amazon-s3 ×1
delphi ×1
emr ×1
for-loop ×1
html ×1
intellij-13 ×1
jasmine ×1
json ×1
jvm ×1
karma-runner ×1
maven ×1
node.js ×1
optimization ×1
performance ×1
php ×1
sbt ×1
sbt-assembly ×1
tdd ×1
web ×1