package HbaseApi;
import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.CellUtil;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.Durability;
import org.apache.hadoop.hbase.client.HTableInterface;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.coprocessor.BaseRegionObserver;
import org.apache.hadoop.hbase.coprocessor.ObserverContext;
import org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment;
import org.apache.hadoop.hbase.regionserver.wal.WALEdit;
import java.io.IOException;
import java.util.List;
/**
* 需求是,往yg表里放数据时,将员工的pid加入到zg表对应的rowkey上,比如:
* yg表:
* rowkey:0001 cf:zg->zg001
*
* 当我们插入这样一条数据时,需要将0001这条数据插入到zg表中:
* zg表:
* rowkey:zg001 cf:0001:N
*/
public class RegionObServerDemo extends BaseRegionObserver {
private final byte[]CF="cf".getBytes();//定义列簇
private final byte[] Qualifier="qualifier".getBytes();//列值
private byte[]zgrow;
private byte[]ygrow;
@Override
public void prePut(ObserverContext<RegionCoprocessorEnvironment> e, Put put, WALEdit edit, Durability durability) throws IOException {
if(put.has(CF,Qualifier))//如果有列簇和列限定符
{
List<Cell> cells = put.get(CF, Qualifier);//则获取这个cell,获取了cell就可以获取很多的值
if(cells.size()==1)
{
Cell cell = cells.get(0);
System.out.println(cell);
byte[] bytes = CellUtil.cloneValue(cell);//将value的值(即zg001)克隆给bytes
zgrow=bytes;//在这里拿到了zg的rowkey
}
HTableInterface zg = e.getEnvironment().getTable(TableName.valueOf("zg"));//拿到zg表的控制权
Put put1 =new Put(zgrow);//将rowkey值放入进去
put1.addColumn(CF,ygrow,"N".getBytes());//这里是往zg表插入列簇,列和值
zg.put(put1);//将值放进去
}
}
}
Hbase协处理器 ,二级索引 put一个表另一个表也会有数据
最新推荐文章于 2025-06-11 00:00:00 发布
本文详细介绍了一个HBase RegionObserver的实际应用案例,通过自定义RegionObserver,在数据写入HBase时,实现数据同步到另一个表的功能。具体演示了如何在预处理put操作时,将源表的数据自动复制到目标表,确保数据的一致性和完整性。
1267

被折叠的 条评论
为什么被折叠?



