Jac*_* Sa 7 apache-spark apache-spark-sql
我刚开始使用Spark.我有安装了Spark的CDH5.但是,当我尝试使用sparkcontext时,它会给出如下错误
<console>:17: error: not found: value sc
val distdata = sc.parallelize(data)
Run Code Online (Sandbox Code Playgroud)
我已经研究过这个并发现错误:找不到:值sc
并试图用./spark-shell启动spark上下文.它给出了错误No such File or Directory
如果您在其确切目录中,或者您在其他地方spark-shell
,./
则可以从开始path/to/spark-shell
。
此外,如果你正在运行一个脚本spark-submit
,你需要初始化sc
为SparkContext
第一:
import org.apache.spark.SparkContext
import org.apache.spark.SparkConf
val conf = new SparkConf().setAppName("Simple Application")
val sc = new SparkContext(conf)
Run Code Online (Sandbox Code Playgroud)
归档时间: |
|
查看次数: |
32311 次 |
最近记录: |