hbase高性能读取数据(多线程+get(list))

前言:

因业务需要,对hbase的读取性能进行研究与优化,现有网上的资料良莠不齐,写的不够清晰,对于初学者而言,很难实现高性能读取habse数据,自己整合资料,耗费一个多星期,完成了hbase高性能读取数据,当然本程序依旧有很大的优化空间,java多线程这一个点就是值得深入思考的经典问题。

hbase读取数据方式:

1、依旧rowkey查找数据

 // 根据rowkey查找数据
    public static void getData(String tableName, String rowkey, String colFamily, String col) throws IOException {
//        init();
        Table table = connection.getTable(TableName.valueOf(tableName));
        Get get = new Get(Bytes.toBytes(rowkey));
        // 获取指定列族数据
         get.addFamily(Bytes.toBytes(colFamily));
        // 获取指定列数据
         get.addColumn(Bytes.toBytes(colFamily),Bytes.toBytes(col));
        Result result = table.get(get);
  
        showCell(result);
        table.close();
//        close();
    }

2、给出起始行与结束行批量查询

   // 批量查找数据
    @SuppressWarnings("deprecation")
	public static ArrayList<ArrayList<Data>> scanData(String tableName, String startRow, String stopRow) throws IOException {
//        Table table = connection.getTable(TableName.valueOf(tableName));
         HTablePool pool = new HTablePool(configuration,1000);
         Scan scan = new Scan();
         scan.setStartRow(Bytes.toBytes(startRow));
         scan.setStopRow(Bytes.toBytes(stopRow));
         int Count = 0;
        ResultScanner resultScanner = pool.getTable(tableName).getScanner(scan);

        ArrayList<ArrayList<Data>> sunDatas = new ArrayList<ArrayList<Data>>(); 
        try{
        	//内存溢出
            for (Result result : resultScanner) {
//            	 result.size();行
            	ArrayList<Data> sunData = new ArrayList<Data>(); 
            	
            	//showCell(result);
            	 //列
            	Cell[] cells = result.rawCells();
            	//System.out.println(new String(CellUtil.cloneRow(cells[0])));
                for (Cell cell : cells) {
                	 Data aData = new Data();
                     aData.setColString(new String(CellUtil.cloneRow(cell)));
                     aData.setRowString(new String(CellUtil.cloneValue(cell))); 
                     sunData.add(aData);
                     aData = null;
                }
                 sunDatas.add(sunData);

            }
        }finally{
        	resultScanner.close();
        }
        
              pool.getTable(tableName).close();
              return sunDatas;
    }

3、getlist指定rowkey集合与需要查询的列(推荐,符合业务需要)

 /** 
    ArrayList<String> rowkeyList ,    rowkey集合
     String[] cols ,   需要查的列
     String tableName, 表名
     int linknum,  表格连接数量
  */
    public static ArrayList<ArrayList<String>> getlist(ArrayList<String> rowkeyList , String[] cols ,String tableName,int linknum) throws IOException{
        	List<Get> getList = new ArrayList<Get>();
        	HTable[] table = new HTable[linknum];
            for (int i = 0; i < linknum; i++) {
            	table[i] = new HTable(configuration, tableName);
            	table[i].setScannerCaching(1000);
            }		
            //connection.getTable(TableName.valueOf(tableName));// 获取表
            
            ArrayList<ArrayList<String>> list =new ArrayList<ArrayList<String>>();
            for (int i = 0 ; i < rowkeyList.size(); i++){//把rowkey加到get里,再把get装到list中
                Get get = new Get(Bytes.toBytes(rowkeyList.get(i)));
                for (int j = 0; j < cols.length; j++) {
                	get.addColumn(Bytes.toBytes("f1"),Bytes.toBytes(cols[j]));
    			}
                getList.add(get);
                int link = 0;
                int linkc = 0;
                if(i % 1000 == 0){
                	System.out.println(i);
                	//1000行批量导出一次
                	link++;
                	if(link < 10){
                		linkc = link;
                	}else if(link % 10 == 0) {
                		linkc = 10;
    				}else {
    					linkc = link % 10;
    				}
                	Result[] results = table[linkc].get(getList);//重点在这,直接查getList<Get>
                    for (Result result : results){//对返回的结果集进行操作
                    	ArrayList<String> list2 = new ArrayList<String>();
                    	for (Cell kv : result.rawCells()) {
                            String value = Bytes.toString(CellUtil.cloneValue(kv));
                            list2.add(value);
                        }
                    	list.add(list2);
                    }
                    //getlist清空
                    getList.clear();
                }else if(i == rowkeyList.size() - 1){
                	System.out.println(i);
                	Result[] results = table[linknum-1].get(getList);//重点在这,直接查getList<Get>
                    for (Result result : results){//对返回的结果集进行操作
                    	ArrayList<String> list2 = new ArrayList<String>();
                    	for (Cell kv : result.rawCells()) {
                            String value = Bytes.toString(CellUtil.cloneValue(kv));
                            list2.add(value);
                        }
                    	list.add(list2);
                    }
                    //getlist清空
                    getList.clear();
                }            
                get = null;
            }
            return list;
        	
        }

多线程实践

1、实现runnable接口(返回结果集麻烦)

package com;
import java.io.File;
import java.io.IOException;
import java.nio.charset.Charset;
import java.text.ParseException;
import java.text.SimpleDateFormat;
import java.util.ArrayList;
import java.util.Date;
import java.util.List;
import java.util.concurrent.Callable;
import java.util.concurrent.ConcurrentHashMap;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;
import java.util.concurrent.Future;
import java.util.concurrent.FutureTask;
import java.util.concurrent.ThreadFactory;
import java.util.concurrent.ThreadPoolExecutor;
import java.util.concurrent.TimeUnit;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.shell.Count;
import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.CellUtil;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HColumnDescriptor;
import org.apache.hadoop.hbase.HTableDescriptor;
import org.apache.hadoop.hbase.KeyValue;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.Admin;
import org.apache.hadoop.hbase.client.BufferedMutator;
import org.apache.hadoop.hbase.client.BufferedMutatorParams;
import org.apache.hadoop.hbase.client.Connection;
import org.apache.hadoop.hbase.client.ConnectionFactory;
import org.apache.hadoop.hbase.client.Delete;
import org.apache.hadoop.hbase.client.Get;
import org.apache.hadoop.hbase.client.HTable;
import org.apache.hadoop.hbase.client.HTablePool;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.client.ResultScanner;
import org.apache.hadoop.hbase.client.Scan;
import org.apache.hadoop.hbase.client.Table;
import org.apache.hadoop.hbase.client.coprocessor.AggregationClient;
import org.apache.hadoop.hbase.client.coprocessor.LongColumnInterpreter;
import org.apache.hadoop.hbase.util.Bytes;
import org.jruby.RubyProcess.Sys;
import org.omg.CORBA.ARG_IN;
import org.apache.hadoop.hbase.mapreduce.RowCounter;
import org.apache.hadoop.util.StopWatch;

import com.csvreader.CsvReader;
import com.github.luben.zstd.Zstd;
import com.google.common.util.concurrent.ThreadFactoryBuilder;

public class DataReaderServer implements Runnable{
	private List<String> rowkeyList;
	private String tableName;
	private String [] cols;
	private Configuration configuration;
    private HTable table;
    ArrayList<DataStract> alldata = new ArrayList<DataStract>();
	
	public DataReaderServer(List<String> rowkeyList,String tableName,String [] cols,Configuration configuration,HTable table){
		this.rowkeyList = rowkeyList;
        this.tableName = tableName;
        this.cols = cols;
        this.configuration = configuration;
        this.table = table;
	}
	@Override
	public void run() {
		// TODO Auto-generated method stub
		List<Get> getList = new ArrayList<Get>();
		ArrayList<DataStract> data = new ArrayList<DataStract>();
		try {
			table = new HTable(configuration, "TB001");
			table.setScannerCaching(50);
		} catch (IOException e1) {
			// TODO Auto-generated catch block
			e1.printStackTrace();
		}
		
        //connection.getTable(TableName.valueOf(tableName));// 获取表
        //ArrayList<ArrayList<String>> list =new ArrayList<ArrayList<String>>();
        System.out.println("rowkey "+rowkeyList.size());
		for (int i = 0 ; i < rowkeyList.size(); i++){//把rowkey加到get里,再把get装到list中
            Get get = new Get(Bytes.toBytes(rowkeyList.get(i)));
            for (int j = 0; j < cols.length; j++) {
            	get.addColumn(Bytes.toBytes("f1"),Bytes.toBytes(cols[j]));
			}
            //System.out.println(i);
            getList.add(get);
            
            if(i % 1000 == 0 && i > 0){
            	//System.out.println(i);
            	try {
    				Result[] results = table.get(getList);
//    				System.out.println("结果集"+results.length+"  "+getList.size());
    				for (Result result : results){//对返回的结果集进行操作
                    	ArrayList<String> list2 = new ArrayList<String>();
                    	for (Cell kv : result.rawCells()) {
                            String value = Bytes.toString(CellUtil.cloneValue(kv));
                            list2.add(value);
                        }
                    	//list.add(list2);
                    	//System.out.println("---");
                    	DataStract swap = new DataStract();
                    	swap.setTime(rowkeyList.get(i));
                    	swap.setDalist(list2);
                    	//System.out.println(swap.getDalist().size());
                    	data.add(swap);
                    	//System.out.println("++"+data.size());
                    }
    			} catch (IOException e) {
    				// TODO Auto-generated catch block
    				e.printStackTrace();
    			}
                //getlist清空
                getList.clear();
                
            }else if(i == rowkeyList.size() - 1){
            	try {
            		System.out.println(i);
    				Result[] results = table.get(getList);
    				for (Result result : results){//对返回的结果集进行操作
                    	ArrayList<String> list2 = new ArrayList<String>();
                    	for (Cell kv : result.rawCells()) {
                            String value = Bytes.toString(CellUtil.cloneValue(kv));
                            list2.add(value);
                        }
                    	//list.add(list2);
                    	DataStract swap = new DataStract();
                    	swap.setTime(rowkeyList.get(i));
                    	swap.setDalist(list2);
                    	data.add(swap);
                    	
                    }
    			} catch (IOException e) {
    				// TODO Auto-generated catch block
    				e.printStackTrace();
    			}
                //getlist清空
                getList.clear();
            }
			get = null;
        }
		//总数据容器添加
		alldata.addAll(data);
	}
   

}

主接口调用如下

 //thread多任务
 long st1 = System.currentTimeMillis();
 //创建十个表格连接
 HTable[] table = new HTable[10];
 //开五个线程,总数rowkey分成五份
 int avg = 0;  //平均
 int extra = 0; //额外余数
 int t = 0; //循环次数
 List<String> thname = new ArrayList<String>();
 if(rowkeyArrayList.size() % 5 == 0){
	 avg = rowkeyArrayList.size() / 5;
	 t = rowkeyArrayList.size() / avg;
	 for (int i = 0; i < 5; i++) {
		 //List<String> rowkeyList,String tableName,String [] cols,Configuration configuration,HTable table
		 DataReaderServer dataReaderServer = new DataReaderServer(rowkeyArrayList.subList(i*avg, (i+1)*avg),"TB001",head,configuration,table[i]);
		 Thread thread = new Thread(dataReaderServer);
		 thread.start();
		 thname.add(thread.getName());
	}
 }else {
	 //avg = rowkeyArrayList.size() / 10;
	 extra = rowkeyArrayList.size() % 5;
	 avg = (rowkeyArrayList.size() - extra) / 5;
	 t = rowkeyArrayList.size() / avg;
	 for (int i = 0; i < 6; i++) {
		 if(i<5){
			 DataReaderServer dataReaderServer = new DataReaderServer(rowkeyArrayList.subList(i*avg, (i+1)*avg),"TB001",head,configuration,table[i]);
			 Thread thread = new Thread(dataReaderServer);
    		 thread.start();
    		 thname.add(thread.getName());
		 }else {
			 DataReaderServer dataReaderServer = new DataReaderServer(rowkeyArrayList.subList(i*avg, rowkeyArrayList.size()),"TB001",head,configuration,table[i]);
			 Thread thread = new Thread(dataReaderServer);
    		 thread.start();
    		 thname.add(thread.getName());
		}
		 
	}
	 
}

2、实现callable接口(推荐,有结果集返回)

package com;

import java.io.IOException;
import java.util.ArrayList;
import java.util.List;
import java.util.concurrent.Callable;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.CellUtil;
import org.apache.hadoop.hbase.client.Get;
import org.apache.hadoop.hbase.client.HTable;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.util.Bytes;

public class CallableGetlist implements Callable <ArrayList<DataStract>>{
	private List<String> rowkeyList;
	private String tableName;
	private String [] cols;
	private Configuration configuration;
    private HTable table;
    ArrayList<DataStract> alldata = new ArrayList<DataStract>();
    
	public CallableGetlist(List<String> rowkeyList,String tableName,String [] cols,Configuration configuration,HTable table)
	{
		this.rowkeyList = rowkeyList;
        this.tableName = tableName;
        this.cols = cols;
        this.configuration = configuration;
        this.table = table;
	}
	
	@Override
	public ArrayList<DataStract> call() throws Exception {
		// TODO Auto-generated method stub
		List<Get> getList = new ArrayList<Get>();
		ArrayList<DataStract> data = new ArrayList<DataStract>();
		
		
        //connection.getTable(TableName.valueOf(tableName));// 获取表
        //ArrayList<ArrayList<String>> list =new ArrayList<ArrayList<String>>();
        System.out.println("rowkey "+rowkeyList.size());
		for (int i = 0 ; i < rowkeyList.size(); i++){//把rowkey加到get里,再把get装到list中
            Get get = new Get(Bytes.toBytes(rowkeyList.get(i)));
            for (int j = 0; j < cols.length; j++) {
            	get.addColumn(Bytes.toBytes("f1"),Bytes.toBytes(cols[j]));
			}
            //System.out.println(i);
            getList.add(get);
            
            if(i % 1000 == 0 && i > 0){
            	//System.out.println(i);
            	try {
    				Result[] results = table.get(getList);
//    				System.out.println("结果集"+results.length+"  "+getList.size());
    				for (Result result : results){//对返回的结果集进行操作
                    	ArrayList<String> list2 = new ArrayList<String>();
                    	for (Cell kv : result.rawCells()) {
                            String value = Bytes.toString(CellUtil.cloneValue(kv));
                            list2.add(value);
                        }
                    	//list.add(list2);
                    	//System.out.println("---");
                    	DataStract swap = new DataStract();
                    	swap.setTime(rowkeyList.get(i));
                    	swap.setDalist(list2);
                    	//System.out.println(swap.getDalist().size());
                    	data.add(swap);
                    	//System.out.println("++"+data.size());
                    }
    			} catch (IOException e) {
    				// TODO Auto-generated catch block
    				e.printStackTrace();
    			}
                //getlist清空
                getList.clear();
                
            }else if(i == rowkeyList.size() - 1){
            	try {
            		System.out.println(i);
    				Result[] results = table.get(getList);
    				for (Result result : results){//对返回的结果集进行操作
                    	ArrayList<String> list2 = new ArrayList<String>();
                    	for (Cell kv : result.rawCells()) {
                            String value = Bytes.toString(CellUtil.cloneValue(kv));
                            list2.add(value);
                        }
                    	//list.add(list2);
                    	DataStract swap = new DataStract();
                    	swap.setTime(rowkeyList.get(i));
                    	swap.setDalist(list2);
                    	data.add(swap);
                    	
                    }
    			} catch (IOException e) {
    				// TODO Auto-generated catch block
    				e.printStackTrace();
    			}
                //getlist清空
                getList.clear();
            }
			get = null;
        }
		//总数据容器添加
		return data;
		
	}

}

主接口调用如下

//实现callable接口
         //创建十个表格连接
         long st1 = System.currentTimeMillis();
         //HTable[] table = new HTable[5];
         HTable table = null;
         try {
 			table = new HTable(configuration, "TB001");
 			table.setScannerCaching(50);
 		} catch (IOException e1) {
 			// TODO Auto-generated catch block
 			e1.printStackTrace();
 		}
         ExecutorService pool = Executors.newFixedThreadPool(5);
         final int maxRowKeySize = 1000;
         int loopSize = rowkeyArrayList.size() % maxRowKeySize == 0 ? rowkeyArrayList.size()
             / maxRowKeySize : rowkeyArrayList.size() / maxRowKeySize + 1;
         ArrayList<Future<ArrayList<DataStract>>> results = new ArrayList<Future<ArrayList<DataStract>>>();
         for (int loop = 0; loop < loopSize; loop++)
         {
        	 int end = (loop + 1) * maxRowKeySize > rowkeyArrayList.size() ? rowkeyArrayList
                     .size() : (loop + 1) * maxRowKeySize;
             List<String> partRowKeys = rowkeyArrayList.subList(loop * maxRowKeySize,
                     end);
             CallableGetlist callableGetlist = new CallableGetlist(partRowKeys,"TB001",head,configuration,table);
             synchronized (pool)
             {
                 Future<ArrayList<DataStract>> result = pool.submit(callableGetlist);
                 results.add(result);
             }
         }
         pool.shutdown();
         long et1 = System.currentTimeMillis();
         System.out.println("线程执行时间: "+(et1 - st1));
         long st2 = System.currentTimeMillis();
         ArrayList<ArrayList<DataStract>> datas = new ArrayList<ArrayList<DataStract>>();
         ArrayList<DataStract> data = new ArrayList<DataStract>();
        	 try {
        		data.clear(); 
        		for(Future<ArrayList<DataStract>> result:results){
        			ArrayList<DataStract> t = result.get();
        			data.addAll(t);
				}
        		datas.add(data);
			} catch (InterruptedException e) {
				// TODO Auto-generated catch block
				e.printStackTrace();
			} catch (ExecutionException e) {
				// TODO Auto-generated catch block
				e.printStackTrace();
			}
         System.out.println("---"+datas.get(0).get(0).getDalist().size());
         long et2 = System.currentTimeMillis();
         System.out.println("数据连接时间: "+(et2-st2));

总结

依据服务器实际测试:86400行 188列 所有数据获取需要 24秒。
以上的实现代码,有我自己写的实体类没有贴上去,有关list集合容器依据自己的实际情况进行修改。
注意:多线程的性能是受到查询的数据量、CPU性能、网络带宽的影响的,具体应该开多少个线程,怎样优化,欢迎大家讨论。

<think>好的,我需要解决用户的问题:使用Spring Boot实现从Oracle读取数据,发送到Kafka,然后通过多线程消费者处理并与HBase规则关联,生成新表后插入回Oracle。我得先分解这个流程,看看每个环节需要什么组件和配置。 首先,数据读取部分。用户用的是Oracle,所以得配置Spring Boot连接Oracle的数据源。记得引用中提到多数据源的配置,比如引用[4]里的例子,用两个数据源,这里可能只需要一个Oracle的配置。但可能需要Druid连接池,所以得引入Druid依赖,并在application.properties里设置url、用户名、密码等。这部分应该没问题,但要注意Oracle的JDBC驱动可能需要手动添加到项目中,因为Maven中央仓库可能没有。 接下来是发送到Kafka。Spring有Spring Kafka项目,可以方便地集成。生产者需要配置bootstrap servers,然后使用KafkaTemplate发送消息。引用[3]提到生产者如何选择分区,这里用户可能用默认的轮询或者根据某个关键字分区。这部分需要添加Kafka的依赖,配置生产者参数,然后在读取数据后调用KafkaTemplate发送。 然后是消费者部分,需要多线程处理。Spring Kafka的消费者默认是单线程的,但可以通过配置concurrency参数来启动多个消费者线程。比如设置concurrency = 5,就会启动5个线程。同时,消费者需要反序列化消息,处理数据,并连接HBase进行规则匹配。这里可能需要HBase的Java客户端,比如HBaseTemplate,或者直接使用HBase的API。规则关联部分可能需要查询HBase表,根据某些键值获取规则,然后生成新的数据。 生成新表并插入回Oracle,这里涉及到在Oracle中动态创建表,可能需要执行DDL语句。使用Spring的JdbcTemplate或者MyBatis等工具来执行创建表和插入操作。需要注意的是权限问题,以及表结构是否已经存在,避免重复创建。 整个流程中,数据的一致性需要保证。比如在读取Oracle数据后,是否要标记已处理,避免重复发送到Kafka。可能需要在数据库中使用状态字段,或者采用事务管理。但Kafka发送部分的事务可能需要更复杂的配置,比如使用Kafka事务管理器。 另外,多线程处理时需要考虑线程安全和资源竞争。比如HBase的连接是否线程安全,或者是否需要为每个线程创建独立的连接。还有异常处理,比如某个消息处理失败,是否需要重试或者记录错误日志。 配置方面,需要检查所有的依赖是否正确,比如Spring Boot的版本是否兼容Spring Kafka和HBase客户端。可能还需要配置HBase的ZooKeeper地址,以及Kafka的消费者组ID等。 测试环节也很重要,每个部分都需要单元测试和集成测试。比如使用EmbeddedKafka来测试生产者消费者,用测试数据库来验证数据读取和插入是否正确,以及HBase规则匹配是否准确。 最后,性能优化。引用[5]提到JVM调优和项目优化,可能需要调整堆内存、垃圾回收器等参数,确保应用在高负载下稳定运行。同时,Kafka的生产者和消费者配置,如批处理大小、重试机制等,也需要优化以提高吞吐量。 可能遇到的问题包括:Oracle数据量大时的分页查询效率,Kafka消息顺序和分区策略的影响,HBase查询的性能瓶颈,多线程间的协调,以及事务管理的复杂性。需要逐步调试,查看日志,定位问题点。</think>### 分步实现方案 #### 1. **环境准备与依赖配置** - **Spring Boot 项目初始化** 使用 Spring Initializr 创建项目,添加依赖: ```xml <!-- Oracle 驱动 --> <dependency> <groupId.com.oracle.database.jdbc</groupId> <artifactId>ojdbc8</artifactId> <version>21.5.0.0</version> </dependency> <!-- Kafka 集成 --> <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> </dependency> <!-- HBase 客户端 --> <dependency> <groupId>org.apache.hbase</groupId> <artifactId>hbase-client</artifactId> <version>2.4.11</version> </dependency> <!-- 多数据源支持 --> <dependency> <groupId>com.baomidou</groupId> <artifactId>dynamic-datasource-spring-boot-starter</artifactId> <version>3.5.1</version> </dependency> ``` - **Oracle 数据源配置** 在 `application.properties` 中配置 Oracle 连接(参考引用[4]): ```properties spring.datasource.dynamic.primary=oracle spring.datasource.dynamic.datasource.oracle.url=jdbc:oracle:thin:@localhost:1521:ORCL spring.datasource.dynamic.datasource.oracle.username=user spring.datasource.dynamic.datasource.oracle.password=pass spring.datasource.dynamic.datasource.oracle.driver-class-name=oracle.jdbc.OracleDriver ``` #### 2. **Oracle 数据读取与 Kafka 生产** - **数据读取服务** 使用 Spring Data JPA 或 MyBatis 查询数据: ```java @Service public class OracleService { @Autowired private JdbcTemplate jdbcTemplate; public List<Map<String, Object>> fetchData() { return jdbcTemplate.queryForList("SELECT * FROM source_table"); } } ``` - **Kafka 生产者配置** 在 `application.properties` 中配置 Kafka 生产者(参考引用[3]): ```properties spring.kafka.bootstrap-servers=localhost:9092 spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer spring.kafka.producer.value-serializer=org.springframework.kafka.support.serializer.JsonSerializer ``` - **发送消息到 Kafka** ```java @Service public class KafkaProducerService { @Autowired private KafkaTemplate<String, Object> kafkaTemplate; public void sendMessage(String topic, Object data) { kafkaTemplate.send(topic, data); } } ``` #### 3. **Kafka 多线程消费与 HBase 规则关联** - **Kafka 消费者配置(多线程)** 配置消费者并发度以实现多线程(引用[3]): ```properties spring.kafka.consumer.group-id=rule-processor-group spring.kafka.consumer.auto-offset-reset=earliest spring.kafka.listener.concurrency=5 # 启动 5 个消费者线程 ``` - **消费者处理逻辑** ```java @KafkaListener(topics = "data-topic") public void processMessage(ConsumerRecord<String, Object> record) { Map<String, Object> data = (Map<String, Object>) record.value(); // 从 HBase 查询规则 Configuration hbaseConfig = HBaseConfiguration.create(); try (Connection connection = ConnectionFactory.createConnection(hbaseConfig)) { Table table = connection.getTable(TableName.valueOf("rules")); Get get = new Get(Bytes.toBytes(data.get("id").toString())); Result result = table.get(get); // 应用规则生成新数据 Map<String, Object> newData = applyRule(data, result); // 插入新表到 Oracle insertIntoOracle(newData); } } ``` #### 4. **HBase 规则匹配与 Oracle 新表生成** - **HBase 查询逻辑** 使用 `hbase-client` 实现条件过滤: ```java private Map<String, Object> applyRule(Map<String, Object> data, Result ruleResult) { // 解析规则并生成新数据(示例) String rule = Bytes.toString(ruleResult.getValue(Bytes.toBytes("cf"), Bytes.toBytes("rule"))); data.put("processed_value", data.get("value") + "_" + rule); return data; } ``` - **Oracle 新表插入** 动态创建表并插入数据: ```java public void insertIntoOracle(Map<String, Object> data) { jdbcTemplate.execute("CREATE TABLE IF NOT EXISTS result_table (id NUMBER, processed_value VARCHAR2(50))"); jdbcTemplate.update("INSERT INTO result_table VALUES (?, ?)", data.get("id"), data.get("processed_value")); } ``` #### 5. **事务与容错处理** - **Kafka 事务支持** 在生产者端启用事务(引用[3]): ```java @Bean public ProducerFactory<String, Object> producerFactory() { Map<String, Object> configs = new HashMap<>(); configs.put(ProducerConfig.TRANSACTIONAL_ID_CONFIG, "txn-1"); return new DefaultKafkaProducerFactory<>(configs); } ``` - **消费者重试机制** 配置 `RetryTemplate` 处理异常: ```java @Bean public ConcurrentKafkaListenerContainerFactory<String, Object> kafkaListenerContainerFactory() { ConcurrentKafkaListenerContainerFactory<String, Object> factory = new ConcurrentKafkaListenerContainerFactory<>(); factory.setRetryTemplate(new RetryTemplate()); return factory; } ``` ### 关键问题与优化 1. **性能瓶颈** - **Kafka 分区策略**:根据业务键(如 `data.id`)分区,确保相同键的数据由同一线程处理[^3]。 - **HBase 批量查询**:使用 `Batch.Get` 减少网络开销。 2. **数据一致性** - 在 Oracle 中标记已处理数据,避免重复消费。 - 使用 Kafka 的 `ack=all` 配置保证消息持久化[^3]。 3. **动态表创建** - 预检查表是否存在,避免频繁执行 DDL。 ### 示例代码整合 ```java // 主控制器 @RestController public class DataController { @Autowired private OracleService oracleService; @Autowired private KafkaProducerService kafkaProducer; @Scheduled(fixedDelay = 5000) public void fetchAndSend() { List<Map<String, Object>> dataList = oracleService.fetchData(); dataList.forEach(data -> kafkaProducer.sendMessage("data-topic", data)); } } ``` ### 相关引用配置 - Oracle 多数据源配置参考引用[4] - Kafka 生产者分区策略参考引用[3] - Spring Boot 优化方法参考引用[5]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值