我试图在Netbeans中运行SparkPi.scala示例程序.不幸的是,我对Spark很新,并且无法成功执行它.
我的偏好是只在Netbeans中工作并从那里执行.我知道火花也允许从火花控制台执行 - 但我不喜欢采取这种方法.
这是我的build.sbt文件内容:
name := "SBTScalaSparkPi"
version := "1.0"
scalaVersion := "2.10.6"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.6.1"
Run Code Online (Sandbox Code Playgroud)
这是我的plugins.sbt文件内容:
logLevel := Level.Warn
Run Code Online (Sandbox Code Playgroud)
这是我试图执行的程序:
import scala.math.random
import org.apache.spark.SparkContext
import org.apache.spark.SparkConf
/** Computes an approximation to pi */
object SparkPi {
def main(args: Array[String]) {
val conf = new SparkConf().setAppName("Spark Pi")
val spark = new SparkContext(conf)
val slices = if (args.length > 0) args(0).toInt else 2
val n = math.min(100000L * slices, Int.MaxValue).toInt // avoid overflow
val count = …Run Code Online (Sandbox Code Playgroud) 我已经在网络上的一台计算机上启动并在 http 192.168.1.52:4040 上运行 Spark master。当我尝试使用此主 url 和/或使用 Spark 而不是 http 连接另一台计算机上的从属设备时,从属设备将无法启动。当我在第二台计算机上访问 http 192.168.1.52:4040 时,Web UI 工作正常。
这是我正在使用的命令:
.sbin>start-slave.sh http://192.168.1.52:4040
或者
使用 Spark:// 而不是 http://
预先感谢您的任何帮助!