Rod*_*igo 14 java mapreduce apache-spark
我想启动嵌入到我的Java应用程序中的独立Apache Spark集群的实例.我试图在他们的网站上找到一些文档,但还没看.
这可能吗?
Eug*_*nev 16
您可以在本地模式下创建SparkContext,您只需要向SparkConf提供"local"作为spark主URL
val sparkConf = new SparkConf().
setMaster("local[2]").
setAppName("MySparkApp")
val sc = new SparkContext(sparkConf)
Run Code Online (Sandbox Code Playgroud)
是的 - 您可以使用嵌入式方式使用Spark和"本地"主服务器.
SparkConf sparkConf = new SparkConf();//Create new spark config
sparkConf.setMaster("local[8]"); // local, using 8 cores (you can vary the number)
sparkConf.setAppName("MyApp");
SparkContext sc = new SparkContext(sparkConf);
Run Code Online (Sandbox Code Playgroud)
这将在您的JVM中运行Spark.
| 归档时间: |
|
| 查看次数: |
4964 次 |
| 最近记录: |