Java 反射由实体类生产hive或mysql表对应字段

本文介绍如何利用Java反射特性,通过创建接口、枚举类和生成表类,简化RDBMS表的创建过程,减少手动编写重复代码的工作量。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

如果一个实体类字段特别多,那么创建对应的RDBMS对应的表会让我感到抓狂,可以利用Java反射特性,生产对应字段
1.创建一个借口,定义一些常量

public interface Constants {

    /**参数默认值*/
    public static final String DEFAULT_PARAM_VAL = "";
    /**中文字符集*/
    public static final String CHAR_UTF8 = "utf-8";
    /**数据默认分隔符*/
    public static final String DEFAULT_SEPAREATOR = "|";
    /**字段默认分隔符*/
    public static final String DEFAULT_FIELDS_SEPAREATOR = ",";
    /**空格字符串*/
    public static final String BLANK_SPACE = " ";
    /**换行字符*/
    public static final String LINE_FEED = "\n";
    /**制表符字符*/
    public static final String TAB = "\t";

}

2.创建一个枚举类,定义一些常用语句 (可以根据,你自己的需求定义)

/**
 * 
 * @author puppy
 * @data 2015-04-02
 *
 */
public enum HiveTableSyntax {

    external("CREATE EXTERNAL TABLE ","external"),inner("CREATE TABLE ","inner"),
    defalut("PARTITIONED BY(logdate String) ROW FORMAT DELIMITED FIELDS TERMINATED BY '|' ","default"),
    sequence("PARTITIONED BY(logdate String) ROW FORMAT DELIMITED FIELDS TERMINATED BY '|' STORED AS SequenceFile ","sequence");

    private String value;
    private String index;

    private HiveTableSyntax() {
    }
    private HiveTableSyntax(String value) {
        this.value=value;
    }
    private HiveTableSyntax(String value,String index)  
    {  
        this.value=value;
        this.index=index;
    }  
    public static String getValue(String index){
        for(HiveTableSyntax hts:HiveTableSyntax.values()){
            if(hts.getIndex().equalsIgnoreCase(index)){
                return hts.getValue();
            }
        }
        return null;
    }
    public String getValue() {
        return value;
    }

    public void setValue(String value) {
        this.value = value;
    }

    public String getIndex() {
        return index;
    }

    public void setIndex(String index) {
        this.index = index;
    }


}

3.创建生成表的类 (我这里只写了生成hive表,对应其他 请自己定义)

/**
 * 
 * @author puppy
 * @date 2015-04-01
 *
 */
public class AutoCreateFields {
    // 生成字段
    public static String create(Class<?> clazz) {

        Field[] fs = clazz.getDeclaredFields();
        Class<?> superClazz = clazz.getSuperclass();
        if (superClazz != null) {
            Field[] superFs = superClazz.getDeclaredFields();
            fs = (Field[]) ArrayUtils.addAll(fs, superFs);
        }
        StringBuffer sb = new StringBuffer();
        sb.append(Constants.LINE_FEED);
        sb.append("(");
        int size = fs.length;
        for (int i = 0; i < size; i++) {

            Field field = fs[i];
            field.setAccessible(true);
            sb.append(field.getName());
            sb.append(Constants.BLANK_SPACE);
            sb.append(field.getType().getSimpleName().equalsIgnoreCase("Integer")?"int":field.getType().getSimpleName());
            if (i + 1 != size) {

                sb.append(Constants.DEFAULT_FIELDS_SEPAREATOR);
                sb.append(Constants.LINE_FEED);
            }
        }
        sb.append(")");
        sb.append(Constants.LINE_FEED);
        return sb.toString();
    }
    //生成hive表
    public static String createHiveTable(Class<?> clazz,String tblname,String externalOrInner,String storeTpye){
        StringBuilder sb=new StringBuilder();
        String fields=create(clazz);
        String create=HiveTableSyntax.getValue(externalOrInner);
        String st=HiveTableSyntax.getValue(storeTpye);
        sb.append(create);
        sb.append(tblname);
        sb.append(fields);
        sb.append(st);
        return sb.toString();
    }
    public static void main(String[] args) {
        String result="Need Params:aqy or partner or v1 or default";

        if(args.length>0&&StringUtils.isNotBlank(args[0])){
            String value=args[0];

            switch (value){
            case "aqy":
                result=createHiveTable(AQYLogOriginal.class,"qiyi_log_original","external","sequence");
                break;
            case "partner":
                result=createHiveTable(PartnerLogOriginal.class,"partner_log_original","external","sequence");
                break;
            case "v1":
                result=createHiveTable(V1VodLogOriginal.class,"v1_log_original","external","sequence");
                break;
                default:
                result=createHiveTable(V1VodLogOriginal.class,"v0v1_log_original","external","sequence");   
                break;
            }

        }
        //String aqy = createHiveTable(AQYLogOriginal.class,"qiyi_log_original","external","sequence");
        //String partner = createHiveTable(PartnerLogOriginal.class,"partner_log_original","external","sequence");
        //String v1 = createHiveTable(V1VodLogOriginal.class,"v0v1_log_original","inner","sequence");
        System.out.println(result);
    }
### 基于 Hive 的京东海鲜管理系统毕业设计实现方案 #### 设计概述 基于 Hive 的京东海鲜管理系统旨在利用大数据技术对海量的海鲜商品销售数据进行存储、管理和分析。该系统的核心目标是对海鲜商品的价格趋势、销量变化以及用户购买行为进行全面监控和预测,从而帮助商家制定更科学的经营策略。 为了满足这一需求,可以借鉴引用中的设计理念[^1],构建一个多维数据分析平台。具体来说,可以通过设计维度(如商品类别、时间戳、地区等)和事实(如订单金额、数量、折扣等),将原始交易记录转化为结构化的数据模型。 --- #### 技术架构设计 根据引用的内容[^2],系统的技术架构可分为以下几个层次: 1. **模型层 (Model)** 模型层主要负责与数据库交互,完成数据读写操作。对于本项目而言,Hive 将作为核心的数据仓库组件,用于存储和管理大规模的海鲜商品交易数据。此外,还需要引入 MySQL 来保存元数据信息(如商品分类、供应商列等)。 2. **逻辑层 (Controller)** 控制器层接收来自前端用户的请求,并调用相应的服务模块来处理这些请求。例如,当用户希望查看某段时间内的销售额时,控制器会向 Hive 查询引擎发送 SQL 请求并返回结果。 3. **展示层 (View)** 展示层采用 Web 页面其他图形界面形式呈现最终的结果。通过图等方式直观反映各项指标的变化规律,便于决策者快速掌握市场动态。 --- #### 数据导入流程 按照引用描述的方法[^3],以下是具体的 Hive 数据导入脚本及其说明: ```bash #!/bin/bash # 加载全局变量文件 . /etc/profile # 设置环境路径 HIVE_HOME=/app/hive/ # 获取昨天日期及当前小时数 yesterday=$(date -d "-1 day" "+%Y%m%d") hour=$(date "+%H") # 执行 Hive 脚本并将日志追加至指定位置 echo "$yesterday" ${HIVE_HOME}/bin/hive --hiveconf daily_param=$yesterday \ --hiveconf hour_param=$hour \ -f /home/jd_dev/seahub/clean.sql >> /var/log/httpd/hivetToMysql.log # 记录执行时间和参数到本地日志 echo "${yesterday}${hour}" >> /home/jd_dev/logs/hivetToMysql.log # 测试查询语句 hive -e "use jd_seafood; select * from sales_data limit 10;" chmod +x import_hive.sh ``` 此脚本实现了定时任务调度功能,能够每天自动从外部源加载最新数据到 Hive 中。同时确保所有过程都被妥善记录下来以便后续排查问题。 --- #### 泛化调用框架的选择 考虑到实际开发过程中可能涉及复杂的业务逻辑处理,推荐选用一些成熟的第三方库辅助完成工作。比如引用提到过的几个选项[^4]——Apache Commons Lang 和 Google Guava 都是非常优秀的工具集,它们可以帮助简化代码编写难度的同时提升程序性能现。 下面给出一段简单的 Java 实现片段演示如何借助 Spring Framework 进行泛型依赖注入: ```java import org.springframework.beans.factory.annotation.Autowired; import java.util.List; public class SeaProductService<T> { @Autowired private Repository<T> repository; public List<T> fetchProducts() { return this.repository.findAll(); } } ``` 这段代码定义了一个通用的服务类 `SeaProductService` ,它可以适用于任何类型的实体对象 T 。通过标注 `@Autowired` 注解让容器自动装配对应的 DAO 组件实例。 --- #### 可能遇到的问题及解决方案 - 如果发现某些字段存在乱码现象,则需确认 MySQL 创建时是否设置了正确的字符编码方式 [ENGINE=InnoDB DEFAULT CHARSET=utf8][^3]; - 当面对超大容量的历史档案迁移作业时,建议分批次逐步上传以免占用过多内存资源造成崩溃风险; - 对于频繁更新的商品库存状态同步场景下,考虑启用增量 ETL 方法代替全量复制模式以节省带宽消耗及时延开销。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值