选择Akka或Spark进行并行处理?

blu*_*sky 9 parallel-processing scala akka akka-cluster apache-spark

在选择并行化任务时,我通常使用Spark.阅读有关Akka中并行处理的文章,例如http://blog.knoldus.com/2011/09/19/power-of-parallel-processing-in-akka/,似乎使用Akka进行并行处理的程度较低.似乎Spark从用户中抽象出一些较低级别的概念,例如map reduce.Spark为分组和过滤数据提供高级抽象.Akka是Spark的并行任务的竞争者还是他们解决了不同的问题?

在决定使用哪种注意事项之前,我应该做什么?

waf*_*dox 10

Spark实际上建立在akka之上(至少在撰写本文时).:)(http://akka.io/community/ - 查看"使用akka的项目")

也就是说,大价值的火花提供了你所提到的那些抽象,主要是(IMO)的概念RDD和操作RDD.因此,如果您的问题域很适合,请继续使用Spark; 否则,自定义编写自己的akka​​东西.