读取的值不是org.apache.spark.SparkContext的成员

Jen*_*.WU 3 scala apache-spark

scala的版本是2.11.8;jdk是1.8; 火花是2.0.2

我尝试在spark apache的官方站点上运行LDA模型的示例,从以下语句中收到错误消息:

val dataset = spark.read.format("libsvm")
  .load("data/libsvm_data.txt")
Run Code Online (Sandbox Code Playgroud)

错误消息是:

错误:读取的(49,25)值不是org.apache.spark.SparkContext的成员val数据集= spark.read.format(“ libsvm”)^

在此处输入图片说明

我不知道该怎么解决。

Tza*_*har 7

就像你看起来正在试图调用readSparkContext,而不是,SQLContextSparkSession

// New 2.0.+ API: create SparkSession and use it for all purposes:
val session = SparkSession.builder().appName("test").master("local").getOrCreate()
session.read.load("/file") // OK

// Old <= 1.6.* API: create SparkContext, then create a SQLContext for DataFrame API usage:
val sc = new SparkContext("local", "test") // used for RDD operations only
val sqlContext = new SQLContext(sc) // used for DataFrame / DataSet APIs

sqlContext.read.load("/file") // OK
sc.read.load("/file") // NOT OK
Run Code Online (Sandbox Code Playgroud)