小编oiv*_*doo的帖子

亚马逊EMR和Spark流媒体

Amazon EMR,Apache Spark 2.3,Apache Kafka,每天约10万条记录.

Apache Spark用于批量处理事件5分钟,每天一次工作节点死亡,AWS自动重新配置节点.在查看日志消息时,它看起来在节点中没有空间,但它们在那里有大约1Tb的存储空间.

在有人绰绰有余的情况下,是否有人存在存储空间问题?

我当时认为日志聚合无法将日志正确复制到s3存储桶,这应该由我看到的spark进程自动完成.

我应该提供哪些信息来帮助解决此问题?

先感谢您!

amazon-web-services amazon-emr apache-spark spark-streaming spark-structured-streaming

7
推荐指数
1
解决办法
648
查看次数