小编Ran*_*yer的帖子

spark.eventLog.dir和spark.history.fs.logDirectory有什么区别?

在Spark中,事件日志目录和历史服务器日志目录之间有什么区别?

spark.eventLog.dir hdfs:///var/log/spark/apps
spark.history.fs.logDirectory hdfs:///var/log/spark/apps
Run Code Online (Sandbox Code Playgroud)

apache-spark

9
推荐指数
1
解决办法
9116
查看次数

推荐的Eclipse EGit工作流程

组,

我们使用Borland Starteam作为我们的源控制系统.我开发Java代码并使用Eclipse作为我的IDE.我最近开始使用EGit作为我的个人源控制系统,并提出了以下工作流程来简化我的开发工作,包括检查代码,添加功能,修复错误,测试,与Star团队中的父源合并(巨大的努力)如果很多人同时进行了更改,那么构建,测试和安装.我希望使用EGit来简化编译,合并和测试过程,同时开发以及在进行大型合并之后的代码安装之前.这就是我想出的.

  1. 创建文件系统文件夹 - "主人"和"工作"
  2. 从Starteam查看新的源文件夹结构为"工作".
  3. 创建名为"Work"的Eclipse工作区并从"Work"文件夹导入Eclipse项目,将这些项目添加到EGit存储库.
  4. 在"工作"工作区中添加功能/修复错误.测试等.准备安装时创建补丁.现在是时候进行大合并,重建,再次测试.
  5. 在安装当天从Starteam查看新的源代码到文件系统中的"Master"文件夹.
  6. 从"Master"文件夹中的source创建Eclipse工作区"Master",导入Eclipse项目并将其添加到新创建的EGit存储库中.
  7. 将补丁导入"主"工作区,执行合并.修复编译错误,测试等
  8. 安装.

这个工作流程有效吗?EGit中是否有更高级的功能可以更进一步?

谢谢你的指导.兰吉特

eclipse egit

5
推荐指数
1
解决办法
1857
查看次数

Erlang使用单引号记录语法

有人可以解释这个Erlang记录语法中的单引号('')吗?

#'queue.declare'{queue = <<"hello">>}
Run Code Online (Sandbox Code Playgroud)

erlang records

5
推荐指数
1
解决办法
366
查看次数

Erlang中Java Java JAR文件的等价物

这是一个试图学习Erlang的Java程序员的全新问题.什么是Erlang中的Java JAR文件相当于哪个第三方库可以包含在Erlang应用程序中?

前几天我在我的项目中制作了mochijson2.erl的副本并且它有效,但我想知道在Erlang世界中是否有更好/更正式的方法来发现和包含库.

java erlang jar

5
推荐指数
1
解决办法
163
查看次数

Java货币API中缺少某些货币符号

我正在用Java编写一些货币转换代码,并使用此API构建货币的内部查找表

final Locale[] locales = Locale.getAvailableLocales();
for (final Locale locale : locales) {
   final Currency currency = Currency.getInstance(locale);
   String sign = currency.getSymbol(locale)
   String code = currency.getCurrencyCode()
     /* do something with them */
}
Run Code Online (Sandbox Code Playgroud)

到目前为止,我有两个观察结果.

  1. 此列表不会在本机脚本https://en.wikipedia.org/wiki/Indian_rupee_sign中返回卢比标志.它返回Rs.代替

  2. 同样对于俄罗斯卢布,它返回руб而不是原生脚本中的卢布符号https://en.wikipedia.org/wiki/Ruble_sign

许多国际货币都有拉丁文和原生文字的标志.Java在返回的内容似乎并不一致.我遇到了限制或我的API使用不正确吗?

谢谢!

java currency

5
推荐指数
1
解决办法
291
查看次数

Apache Spark任务不可序列化

我知道以前曾问过这个问题,但我认为我的失败是由于不同的原因。

            List<Tuple2<String, Integer>> results = results.collect();
            for (int i=0; i<results.size(); i++) {
                System.out.println(results.get(0)._1);
            }


Exception in thread "main" org.apache.spark.SparkException: Job aborted due to stage failure: Task not serializable: java.io.NotSerializableException: tools.MAStreamProcessor$1 at org.apache.spark.scheduler.DAGScheduler.org$apache$spark$scheduler$DAGScheduler$$failJobAndIndependentStages(DAGScheduler.scala:1214) at 
Run Code Online (Sandbox Code Playgroud)

我在Spark中有一个简单的“ map / reduce”程序。以上各行采用reduce步骤的结果,并循环遍历每个所得元素。如果我将其注释掉,那么我不会出错。我没有使用'forEach'或简明的(),而是认为所生成的基础生成了不可序列化的元素。我将其归结为一个简单的for循环,所以想知道为什么我仍然遇到此错误。

谢谢,兰吉特

serialization exception apache-spark

4
推荐指数
1
解决办法
1291
查看次数

ElasticSearch中的查询和过滤器之间有所不同

我对查询和过滤器之间的差异有点困惑.我的困惑源于我在文档中读到的以下句子.

  1. 建议使用过滤器而不是查询,因为过滤器不会触发分数计算
  2. 仅当响应为是/否或精确搜索时才应使用过滤器.
  3. 过滤器可以包含称为"查询过滤器"的查询(例如"术语过滤器"等)

我想要的只是过滤4个属性值,放入日期范围和总和(聚合)几个字段.像这样

sum (salary, tenure) where name = A AND age = B AND join_date between X and Y 
Run Code Online (Sandbox Code Playgroud)

filter elasticsearch

3
推荐指数
1
解决办法
4191
查看次数