小编jgp*_*jgp的帖子

Postgres:如何从unix时代转换为日期?

声明给了我日期和时间.

我怎样才能修改语句,使其仅返回日期?

SELECT to_timestamp( TRUNC( CAST( epoch_ms AS bigint ) / 1000 ) );
Run Code Online (Sandbox Code Playgroud)

sql postgresql date type-conversion epoch

38
推荐指数
3
解决办法
6万
查看次数

有没有人有一个样本GWT 2.7.0 pom?

我正在尝试使用Maven和GWT 2.7.0.有没有人有一个小的pom.xml模板?

我特别关注clean/install/running(我在之前的项目中使用gwt:run)...

gwt maven

7
推荐指数
1
解决办法
6824
查看次数

Spark Kryo注册数组类

我正在尝试使用数组注册一个类(使用Kryo激活的Spark Java),日志显示一条​​明确的消息:

Class is not registered: org.apache.spark.sql.execution.datasources.InMemoryFileIndex$SerializableBlockLocation[]
Run Code Online (Sandbox Code Playgroud)

我写了几个组合,但这些组合不起作用:

        kryo.register(Class.forName("org.apache.spark.sql.execution.datasources.InMemoryFileIndex$SerializableBlockLocation[]")); // ERROR
        kryo.register(Class.forName("org.apache.spark.sql.execution.datasources.InMemoryFileIndex$SerializableBlockLocation[].class")); // ERROR
        kryo.register(Class.forName("org.apache.spark.sql.execution.datasources.InMemoryFileIndex$SerializableBlockLocation$Array")); // ERROR
        kryo.register(Class.forName("[org.apache.spark.sql.execution.datasources.InMemoryFileIndex$SerializableBlockLocation")); // ERROR
        kryo.register(Class.forName("[Lorg.apache.spark.sql.execution.datasources.InMemoryFileIndex$SerializableBlockLocation")); // ERROR
        kryo.register(Class.forName("Array[org.apache.spark.sql.execution.datasources.InMemoryFileIndex$SerializableBlockLocation]")); // ERROR
        kryo.register(Class.forName("[[org.apache.spark.sql.execution.datasources.InMemoryFileIndex$SerializableBlockLocation"));  // ERROR
Run Code Online (Sandbox Code Playgroud)

我也尝试编写注册类,Class.forName但Java无法解析符号InMemoryFileIndex$SerializableBlockLocation:

kryo.register(org.apache.spark.sql.execution.datasources.InMemoryFileIndex$SerializableBlockLocation[].class);
Run Code Online (Sandbox Code Playgroud)

所有其他类都在我的KryoRegister.class中工作.

java kryo apache-spark

6
推荐指数
1
解决办法
198
查看次数

Java 中的 spaCy 替代品

我目前使用 spaCy 来遍历依赖树并生成实体。

nlp = get_spacy_model(detect_lang(unicode_text))
doc = nlp(unicode_text)

entities = set()
for sentence in doc.sents:

  # traverse tree picking up entities
  for token in sentence.subtree:
    ## pick entitites using some pre-defined rules

entities.discard('')
return entities
Run Code Online (Sandbox Code Playgroud)

spaCy 有什么好的 Java 替代品吗?

我正在寻找像 spaCy 那样生成依赖树的库。

编辑:

我研究了斯坦福解析器。但是,它生成了以下解析树:

                     ROOT
                      |
                      NP
       _______________|_________
      |                         NP
      |                _________|___
      |               |             PP
      |               |     ________|___
      NP              NP   |            NP
  ____|__________     |    |     _______|____
 DT   JJ    JJ   NN  NNS   IN   DT      JJ   NN
 |    |     |    | …
Run Code Online (Sandbox Code Playgroud)

nlp pos-tagger stanford-nlp spacy

5
推荐指数
1
解决办法
1万
查看次数

Spark:减去同一 DataSet 行中的值

给定以下数据集:

| title | start | end
| bla   | 10    | 30
Run Code Online (Sandbox Code Playgroud)

我想找到两个数字之间的差异(开始 - 结束)并将它们设置为一个新列,使其看起来像:

| title | time_spent |
 | bla   | 20 |
Run Code Online (Sandbox Code Playgroud)

数据的类型是Dataset<Row>
dataset = dataset.withColumn("millis spent: ", col("end") - col("start")).as("Time spent");
我希望它可以工作的类型,正如我在这个问题中看到的那样,但它确实如此,也许是因为该线程是关于 DataFrames 而不是 DataSets,或者也许是因为 Scala 允许它在 Java 中是非法的?

java apache-spark apache-spark-sql

5
推荐指数
1
解决办法
4494
查看次数

在 spark.sql 中使用 group by 选择多个元素

有没有办法在 sql spark 中按表分组,它选择我正在使用的多个元素代码:

val df = spark.read.json("//path")
df.createOrReplaceTempView("GETBYID")
Run Code Online (Sandbox Code Playgroud)

现在按如下方式分组:

val sqlDF = spark.sql(
  "SELECT count(customerId) FROM GETBYID group by customerId");
Run Code Online (Sandbox Code Playgroud)

但是当我尝试:

val sqlDF = spark.sql(
  "SELECT count(customerId),customerId,userId FROM GETBYID group by customerId");
Run Code Online (Sandbox Code Playgroud)

Spark给出一个错误:

org.apache.spark.sql.AnalysisException: 表达式 'getbyid. userId' 既不存在于 group by 中,也不是聚合函数。如果您不关心获得的值,请添加到 group by 或包装在 first() (或 first_value)中。

有没有办法做到这一点

scala bigdata apache-spark apache-spark-sql

2
推荐指数
1
解决办法
1万
查看次数

Apache Spark 中的 Dataframe、Dataset 和 RDD 有什么区别?

在 Apache Spark 中,这些 API 之间有什么区别?为什么以及何时我们应该选择其中之一而不是其他?

java jvm scala hdfs apache-spark

2
推荐指数
1
解决办法
1869
查看次数

JUnit包命名的最佳实践?

我试图找到一些最佳实践来命名Java包进行测试.我会一直在思考:

测试:

com.example.MyClass
Run Code Online (Sandbox Code Playgroud)

应该是:

com.example.test.MyClassTest
Run Code Online (Sandbox Code Playgroud)

java junit

1
推荐指数
1
解决办法
73
查看次数

在GWT标签中显示HTML实体

在GWT中,我的代码:

rootPanel.add(new Label("&copy; " + "2014" + " MyCorp"));
Run Code Online (Sandbox Code Playgroud)

显示得很好:

&copy; 2014 MyCorp
Run Code Online (Sandbox Code Playgroud)

代替

© 2014 MyCorp
Run Code Online (Sandbox Code Playgroud)

任何提示?

java gwt uibinder

1
推荐指数
1
解决办法
274
查看次数

在PostgreSQL选择查询中将时间戳列值转换为纪元

我需要将时间戳记值转换为SELECT查询中的纪元。请找到以下示例表和预期结果。

样表:

select * from log;
Run Code Online (Sandbox Code Playgroud)
select * from log;
Run Code Online (Sandbox Code Playgroud)

预期结果:

id        | 3
time      | 2016-03-30 18:44:19.189513
data1     | NONE
data3     | NONE
data4     | NONE
Run Code Online (Sandbox Code Playgroud)

日志表的行数为n。请找到以下版本详细信息:

id        | 3
time      | 1459343659
data1     | NONE
data3     | NONE
data4     | NONE
Run Code Online (Sandbox Code Playgroud)

sql postgresql datetime

1
推荐指数
1
解决办法
5105
查看次数

如果在 Apache Spark Java 中为 null,则将行的值替换为另一个值

我在 Java 中使用 Apache Spark 1.6.2。

我有一个包含以下内容的数据帧:

  • 创建日期字段中的日期,
  • close_date 字段中的结束日期。

如果业务未关闭,则 close_date 中的值为 null。

我想要:

  • 向我的 DataFrame 添加一个名为 last_date_business 的额外列
  • 用 close_date 的值填充它
  • 如果 close_date 为空,则使用 current_date()

我可以让 Spark 来做还是应该手动做?

java dataframe apache-spark apache-spark-sql

1
推荐指数
1
解决办法
3509
查看次数