相关疑难解决方法(0)

我应该为Spark选择哪种群集类型?

我是Apache Spark的新手,我刚刚了解到Spark支持三种类型的集群:

  • 独立 - 意味着Spark将管理自己的集群
  • YARN - 使用Hadoop的YARN资源管理器
  • Mesos - Apache的专用资源管理器项目

由于我是Spark的新手,我想我应该首先尝试Standalone.但我想知道哪一个是推荐的.说,将来我需要构建一个大型集群(数百个实例),我应该去哪个集群类型?

hadoop-yarn mesos apache-spark apache-spark-standalone

70
推荐指数
3
解决办法
3万
查看次数