小编Nip*_*nho的帖子

在Scala Spark Shell中不会自动创建Spark Context

我读了一本Spark书:

驱动程序通过SparkContext对象访问Spark,该对象表示与计算集群的连接.在shell中,会自动为您创建一个名为sc的变量SparkContext.尝试打印sc以查看其类型

SC

当我输入sc时,它给出了一个错误20值sc未找到.知道为什么sc不会在我的scala spark shell中自动创建?

我尝试手动创建一个sc,它给了我一个错误,说JVM中已经有一个spark上下文.请看图片:

http://s30.photobucket.com/user/kctestingeas1/media/No%20Spark%20Context.jpg.html

我相信我已经在scala spark shell中,你可以在我的cmd窗口顶部看到指示bin\spark-shell

请指教.谢谢

apache-spark

9
推荐指数
1
解决办法
4800
查看次数

标签 统计

apache-spark ×1