Avi*_*jit 5 hadoop hbase scala apache-spark rdd
我正在使用HBase Version 1.2.0-cdh5.8.2和Spark version 1.6.0。
我正在使用打包toHBaseTable()方法it.nerdammer.spark.hbase保存RDD在Spark中HBASE。
val experiencesDataset = sc.parallelize(Seq((001, null.asInstanceOf[String]), (001,"2016-10-25")))
experiencesDataset .toHBaseTable(experienceTableName).save()
Run Code Online (Sandbox Code Playgroud)
但是我想保存HBase使用中Spark的数据Bulk Load。
我无法理解如何使用批量加载选项。请帮我
| 归档时间: |
|
| 查看次数: |
626 次 |
| 最近记录: |