使用Spark在HBase中批量加载

Avi*_*jit 5 hadoop hbase scala apache-spark rdd

我正在使用HBase Version 1.2.0-cdh5.8.2Spark version 1.6.0

我正在使用打包toHBaseTable()方法it.nerdammer.spark.hbase保存RDDSparkHBASE

val experiencesDataset = sc.parallelize(Seq((001, null.asInstanceOf[String]), (001,"2016-10-25")))
experiencesDataset .toHBaseTable(experienceTableName).save()
Run Code Online (Sandbox Code Playgroud)

但是我想保存HBase使用中Spark的数据Bulk Load

我无法理解如何使用批量加载选项。请帮我