use*_*851 11 apache-spark apache-spark-sql
我正在尝试构建一个Hive Context,它继承自SQLContext.
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)
Run Code Online (Sandbox Code Playgroud)
我收到以下错误:
error: object hive is not a member of package org.apache.spark.sql
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)
Run Code Online (Sandbox Code Playgroud)
我可以从自动完成中清楚地看到蜂巢不存在.关于如何解决这个问题的任何想法?这是来自sparkSQL文档的示例.
谢谢
Mem*_*mos 16
使用sbt:
您必须在依赖项中包含spark-hive.
为此,请在.sbt文件中添加以下行:
libraryDependencies += "org.apache.spark" %% "spark-hive" % "1.5.0"
| 归档时间: |
|
| 查看次数: |
14002 次 |
| 最近记录: |