小编TJV*_*JVR的帖子

在IntelliJ Idea中运行Apache Spark示例应用程序

我试图在Netbeans中运行SparkPi.scala示例程序.不幸的是,我对Spark很新,并且无法成功执行它.

我的偏好是只在Netbeans中工作并从那里执行.我知道火花也允许从火花控制台执行 - 但我不喜欢采取这种方法.

这是我的build.sbt文件内容:

name := "SBTScalaSparkPi"

version := "1.0"

scalaVersion := "2.10.6"

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.6.1"
Run Code Online (Sandbox Code Playgroud)

这是我的plugins.sbt文件内容:

logLevel := Level.Warn
Run Code Online (Sandbox Code Playgroud)

这是我试图执行的程序:

import scala.math.random

import org.apache.spark.SparkContext
import org.apache.spark.SparkConf

/** Computes an approximation to pi */
object SparkPi {
  def main(args: Array[String]) {
    val conf = new SparkConf().setAppName("Spark Pi")
    val spark = new SparkContext(conf)
    val slices = if (args.length > 0) args(0).toInt else 2
    val n = math.min(100000L * slices, Int.MaxValue).toInt // avoid overflow
    val count = …
Run Code Online (Sandbox Code Playgroud)

hadoop scala apache-spark

3
推荐指数
1
解决办法
3930
查看次数

在 Windows 上运行 Spark Slave

我已经在网络上的一台计算机上启动并在 http 192.168.1.52:4040 上运行 Spark master。当我尝试使用此主 url 和/或使用 Spark 而不是 http 连接另一台计算机上的从属设备时,从属设备将无法启动。当我在第二台计算机上访问 http 192.168.1.52:4040 时,Web UI 工作正常。

这是我正在使用的命令:

.sbin>start-slave.sh http://192.168.1.52:4040

或者

使用 Spark:// 而不是 http://

预先感谢您的任何帮助!

scala apache-spark

0
推荐指数
1
解决办法
2591
查看次数

标签 统计

apache-spark ×2

scala ×2

hadoop ×1