小编use*_*537的帖子

如何从终端标准输入重定向到进程标准输入

我正在运行的进程通过使用处理标准输入getchar()。当我在前台运行它时它工作正常。但是,如果我在后台运行它并执行它,echo "a">> /proc/pid/fd/0它将无法工作。在我的系统上,/proc/pid/fd/0与 相同/proc/pts/0,那么如何发送到进程的标准输入以便getchar()可以看到它?我通过 ssh 使用 C++ 工作。

c++ linux ssh bash

5
推荐指数
1
解决办法
861
查看次数

在kinesis流上运行火花时重新磨光

我试图用spark处理kinesis流数据.我用2个分片开始我的流.它工作正常,直到我手动拆分我的一个分片.之后,我的程序在新数据到达时崩溃.

这是错误消息:

ERROR ShutdownTask: Application exception.

java.lang.IllegalArgumentException: Application didn't checkpoint at end of shard shardId-000000000001
Run Code Online (Sandbox Code Playgroud)

我该如何在程序中处理已关闭分片的检查点?

编辑:添加示例代码到这个问题(这也与我高度相关).

示例代码:

/* Create a streaming context */
def functionToCreateContext(): StreamingContext = {

  val ssc = new StreamingContext(sc, Seconds(2) )
  ssc.checkpoint(checkpointDirectory)

  val kinesisStreams = KinesisUtils.createStream(ssc, appName, streamName, endpointUrl,awsRegion,InitialPositionInStream.LATEST,Seconds(1),StorageLevel.MEMORY_ONLY)

  /* Do the processing */
  kinesisStreams.foreachRDD(rdd => ...)

  ssc
}

/* First, recover the context; otherwise, create a new context */
val ssc = StreamingContext.getOrCreate(checkpointDirectory,functionToCreateContext _ )

ssc.start()
ssc.awaitTermination()
Run Code Online (Sandbox Code Playgroud)

apache-spark amazon-kinesis spark-streaming

5
推荐指数
0
解决办法
385
查看次数

标签 统计

amazon-kinesis ×1

apache-spark ×1

bash ×1

c++ ×1

linux ×1

spark-streaming ×1

ssh ×1