Mah*_*afy 4 hbase maven sbt apache-spark
我想使用Spark读取HBase中的表.我添加了以下依赖项:
libraryDependencies += "org.apache.hbase" %% "hbase-spark" % "2.0.0-SNAPSHOT"
Run Code Online (Sandbox Code Playgroud)
如hbase 网站所述,但依赖无法解决!!
我也尝试了不同的版本(1.2.0,1.1.2),但它没有用.
它看起来不像hbase-sparkmaven central,它是从中检索依赖关系的默认存储库.
您需要配置构建管理工具(不清楚是否使用Maven或SBT)才能使用正确的存储库.
从您可以使用的项目页面
但是,目前看起来只有快照可用.
另外,正如下面作者评论中提到的那样
libraryDependencies += "org.apache.hbase" %% "hbase-spark" % "2.0.0-SNAPSHOT"
Run Code Online (Sandbox Code Playgroud)
应该是
libraryDependencies += "org.apache.hbase" % "hbase-spark" % "2.0.0-SNAPSHOT"
Run Code Online (Sandbox Code Playgroud)
在这种情况下不需要double%,因为您不希望将scala版本附加到工件名称.