Spark操作Hbase之读数据

Spark 天涯孤鸟 3054℃ 0评论

Spark操作Hbase有两个接口:

  • 1、newAPIHadoopRDD(conf,TableInputFormat.class, ImmutableBytesWritable.class, Result.class);读取数据
  • 2、 saveAsNewAPIHadoopDataset(job.getConfiguration()):写入数据

下面介绍下newAPIHadoopRDD的用法:
添加依赖:

创建一个连接Hbase的配置类:

转载请注明:猫头鹰工作室 » Spark操作Hbase之读数据

喜欢 (1)or分享 (0)
Avatar
发表我的评论
取消评论

表情

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址