小编Mik*_*lin的帖子

Springs集成的回复关联过程详细信息

我找不到使用网关和服务激活器进行回复处理的文档.

如果我有网关:1)向通道发送请求ReqChannel 2)接受通道RepChannel上的回复

ReqChannel连接到路由器,路由器将传入的消息路由到某些服务激活器之一,比如说AServiceActivator和BServiceActivator,并且服务激活器有一个配置的输出通道="RepChannel".

如果我在网关的接口上异步或同时从不同的线程执行多个方法调用,那么网关如何将传入的回复与实际的服务调用者相关联?

java spring-integration

5
推荐指数
1
解决办法
1071
查看次数

将 InputStream 包装到非阻塞 ReadableByteChannel

是否可以从 InputStream 对象创建非阻塞 ReadableByteChannel?

Channel.newChannel(inputStream) - 生成可能被阻塞的 InputStream.read 调用阻塞的通道

java nio

5
推荐指数
1
解决办法
3355
查看次数

在 Spark 中为 DataFrame 模式定义 DateType 转换

我正在从 CSV 文件中读取 DataFrame,其中第一列是事件日期和时间,例如

2016-08-08 07:45:28+03

在下面的代码中,是否可以在模式定义中指定如何将此类字符串转换为日期?

val df:DataFrame = spark.read.options(Map(
  "header" -> "true"
)).schema(StructType(
    StructField("EventTime", DataTypes.DateType, false) ::
    Nil
)).csv("C:/qos1h.csv")
Run Code Online (Sandbox Code Playgroud)

此代码失败

java.lang.NumberFormatException: For input string: "28+03"
    at java.lang.NumberFormatException.forInputString(NumberFormatException.java:65)
    at java.lang.Integer.parseInt(Integer.java:580)
    at java.lang.Integer.parseInt(Integer.java:615)
    at java.sql.Timestamp.valueOf(Timestamp.java:259)
    at org.apache.spark.sql.catalyst.util.DateTimeUtils$.stringToTime(DateTimeUtils.scala:135)
    at org.apache.spark.sql.execution.datasources.csv.CSVTypeCast$.castTo(CSVInferSchema.scala:291)
    at org.apache.spark.sql.execution.datasources.csv.CSVRelation$$anonfun$csvParser$3.apply(CSVRelation.scala:115)
    at org.apache.spark.sql.execution.datasources.csv.CSVRelation$$anonfun$csvParser$3.apply(CSVRelation.scala:84)
    at org.apache.spark.sql.execution.datasources.csv.CSVFileFormat$$anonfun$buildReader$1$$anonfun$apply$1.apply(CSVFileFormat.scala:125)
    at org.apache.spark.sql.execution.datasources.csv.CSVFileFormat$$anonfun$buildReader$1$$anonfun$apply$1.apply(CSVFileFormat.scala:124)
Run Code Online (Sandbox Code Playgroud)

scala apache-spark-sql

5
推荐指数
1
解决办法
7423
查看次数

使用Kafka主题存储多年数据

我正在寻找一种从多个设备收集指标数据的方法。数据应该由多个“group by”之类的函数聚合。聚合函数列表不完整,稍后将添加新的聚合,并且需要聚合第一天收集的所有数据。

是否可以创建具有 100 年有效期的 Kafka 主题并将其用作此目的的数据存储?那么新的聚合将能够从主题的开头读取,而现有的聚合将从其偏移量继续读取?

apache-kafka

5
推荐指数
1
解决办法
9759
查看次数