小编Rui*_*nte的帖子

如何在Spark 2中使用HBase?

我正在从一个项目(在Scala中)更新版本,而Hbase出现了一些问题。我更新到的版本是:

  • Scala库-> 2.11.12
  • scalatest_2.11-> 3.0.8
  • spark-streaming_2.11-> 2.4.3
  • spark-sql_2.11-> 2.4.3
  • spark-hive_2.11-> 2.4.3

因此,由于始终存在相同的编译错误,因此我无法获得任何有效的hbase-spark:

错误:类路径中缺少符号“类型org.apache.spark.Logging”。“ org.apache.hadoop.hbase.spark.HBaseContext类”需要此符号。确保类路径中有Logging类型,并使用来检查冲突的依赖项-Ylog-classpath

如果针对不兼容版本的org.apache.spark编译了“ HBaseContext.class”,则完全重建可能会有所帮助。

val hBaseContext = new HBaseContext(sc, hBaseConf)
Run Code Online (Sandbox Code Playgroud)

hbase scala maven apache-spark apache-spark-2.0

5
推荐指数
0
解决办法
103
查看次数

标签 统计

apache-spark ×1

apache-spark-2.0 ×1

hbase ×1

maven ×1

scala ×1