1
我正在嘗試使用Spark Scala API讀取HBase表。使用Spark閱讀HBase表中的where子句使用Spark
示例代碼:
conf.set("hbase.master", "localhost:60000")
conf.set("hbase.zookeeper.quorum", "localhost")
conf.set(TableInputFormat.INPUT_TABLE, tableName)
val hBaseRDD = sc.newAPIHadoopRDD(conf, classOf[TableInputFormat], classOf[ImmutableBytesWritable], classOf[Result])
println("Number of Records found : " + hBaseRDD.count())
如何添加where
條款如果我使用newAPIHadoopRDD
?
或者我們需要使用任何Spark Hbase Connector
來實現這個目標?
我看到下面的Spark Hbase連接器,但是我沒有看到where子句的任何示例代碼。
https://github.com/nerdammer/spark-hbase-connector