EasyExcel简单使用

EasyExcel是一个基于Java的、快速、简洁、解决大文件内存溢出的Excel处理工具。 他能让你在不用考虑性能、内存的等因素的情况下,快速完成Excel的读、写等功能。


他能让你在不用考虑性能、内存的等因素的情况下,快速完成Excel的读、写等功能。)

官网地址

https://easyexcel.opensource.alibaba.com/

maven

		<dependency>
            <groupId>com.alibaba</groupId>
            <artifactId>easyexcel</artifactId>
            <version>2.1.6</version>
        </dependency>

EasyExcel导入方法

try {
				File filePath = new File(savePath + File.separator + name);
				//filePath:服务器上获取的流转换的,也可以直接使用传输MultipartFile file,
				// controller传的MultipartFile file,就这么搞InputStream inputStream = multipartFile.getInputStream();
                InputStream inputStream = new BufferedInputStream(new FileInputStream(filePath));
                Throwable var22 = null;

                try {
                    //  调用监听器 通过.headRowNumber(0)从表头开始读取TempRateListValueUploadListener监听器方法(里面可以写构造方法接收传给监听器的值,什么map
list 什么的,实体类TempRateValueUploadModel,实体类里的字段注解@ExcelProperty
                    //	如果监听器里需要用到dao,mapper,service都需要放到构造方法里才可以使用
                    EasyExcel.read(inputStream, TempRateValueUploadModel.class,
                                    new TempRateListValueUploadListener(newParameterMap,
efTransportChargeItemDao))
                            .sheet().doRead();

                    map.put("code", "200");
                    map.put("msg", "导入成功");
                    /*json.put("body", map);*/

                } catch (Throwable var19) {
                    var22 = var19;
                    throw var19;
                } finally {
                    if (inputStream != null) {
                        if (var22 != null) {
                            try {
                                inputStream.close();
                            } catch (Throwable var18) {
                                var22.addSuppressed(var18);
                            }
                        } else {
                            inputStream.close();
                        }
                    }

                }
            } catch (Throwable var21) {
				//	监听器里返回的错误信息
                if (!(var21 instanceof EasyExcelException)) {
                    log.error("parse [" + name + "] excel failed...chargeItemNo[" + chargeItemNo + "]", var21);
                }

                if (var21 instanceof NumberFormatException) {
                    String prefix = "For input string: ";
                    if (var21.getMessage().indexOf(prefix) == -1) {

                        map.put("code", "101");
                        map.put("msg", "类型转换失败");

                    } else {
                        map.put("code", "1");
                        map.put("msg", var21.getMessage());
                    }
                } else {

                    map.put("code", "1");
                    map.put("msg", var21.getMessage());

                }
            } ```

### 监听器

```java package com.maintain.data.excel.listener;

import com.alibaba.excel.context.AnalysisContext; import
com.alibaba.excel.event.AnalysisEventListener; import
com.alibaba.fastjson.JSON; import com.alibaba.fastjson.JSONArray;
import com.alibaba.fastjson.JSONObject; import
com.fasterxml.jackson.databind.ObjectMapper; import
com.maintain.data.excel.bean.*; import
com.maintain.data.excel.dao.EfTransportChargeItemDao; import
com.maintain.data.excel.vo.OperatorInfoVo; import
com.maintain.data.excel.vo.TempRateValueUploadModel; import
com.maintain.data.excel.vo.TempRateValueVo; import
com.sinoservices.core.easyexcel.exception.EasyExcelException; import
com.sinoservices.core.util.EmptyUtils; import
com.sinoservices.core.util.Validator; import
org.apache.commons.lang3.StringUtils; import org.apache.log4j.Logger;
import org.apache.poi.hssf.usermodel.HSSFDateUtil; import
org.springframework.beans.BeanUtils;

import java.beans.PropertyDescriptor; import java.lang.reflect.Field;
import java.lang.reflect.Method; import java.text.ParseException;
import java.text.SimpleDateFormat; import java.util.*; import
java.util.concurrent.ConcurrentHashMap;

public class TempRateListValueUploadListener extends
AnalysisEventListener<TempRateValueUploadModel> {


    private static Logger log = Logger.getLogger(TempRateListValueUploadListener.class);
    private List<TempRateValueUploadModel> templateListValueModel = new ArrayList<>();
    private Map<String, ResultCodeMasterBean> codeMasterCache = new ConcurrentHashMap<>();
    private JSON json = new JSONArray();
    private Map<String, String> map = new HashMap<>();
    private Map<String, String> maps = new HashMap<>();

    private EfTransportChargeItemDao efTransportChargeItemDao;

    /**
     * 调用dao 或者service需要手动传
     * 
     *
     * @param map
     * @param
     * @param efTransportChargeItemDao
     */
    public TempRateListValueUploadListener(Map<String, String> map, EfTransportChargeItemDao efTransportChargeItemDao) {
        this.map = map;
        this.efTransportChargeItemDao = efTransportChargeItemDao;

    }

    /**
     * 文件导入唯一标识
     */
    private String fileUUID = null; 	 	//	此方法每一条数据解析都会来调用
    @Override
    public void invoke(TempRateValueUploadModel object, AnalysisContext context) {
    	
        Integer currentRowNum = context.getCurrentRowNum();

        object.setChargeItemNo(map.get("chargeItemNo"));
        object.setRequestId(map.get("requestId"));
        object.setUserId(map.get("userId"));
        object.setApproverId(map.get("approverId"));
        object.setLastname(map.get("lastname"));
        object.setCreateDate(new Date().toString());
        object.setStatus("0");

        if (currentRowNum == 1) {
            Date date = new Date(System.currentTimeMillis());
            SimpleDateFormat simpleDateFormat = new SimpleDateFormat("yyMMddHHmmss");
            String timeString = simpleDateFormat.format(date);
            UUID uuid = UUID.randomUUID();
            String uuidStr = uuid.toString().replace("-", "").toUpperCase().substring(0, 7);

            fileUUID = timeString + "-" + map.get("chargeItemNo") + "-" + uuidStr;
        }

        //保存UUID
        object.setRemark(fileUUID);
        String message = Validator.validate(object);
        if (message != null) {
            maps.put("code", "101");
            maps.put("msg", "第 " + context.getCurrentRowNum() + " 行: " + message);

        } else {
            templateListValueModel.add(object);
        }
    } 	//	所有数据解析完成都会来调用
    @Override
    public void doAfterAllAnalysed(AnalysisContext context) {

        if (EmptyUtils.isNotEmpty(templateListValueModel)) {
            if (templateListValueModel.size() > 3000) {
                maps.put("code","101");
                maps.put("msg","Excel 导入不能超过3000条");
                throw new EasyExcelException(maps.get("msg"));
            }
            //	实现导入逻辑方法
            maps = save(templateListValueModel);
        }
        templateListValueModel.clear();
        if (!maps.isEmpty() && !"200".equals(maps.get("code"))) {

            throw new EasyExcelException(maps.get("msg"));

        }

    }

    /**
     * 将数据保存到中间表中
     *
     * @param customersdModel
     * @return
     */
    private Map<String, String> save(List<TempRateValueUploadModel> customersdModel) {
        //	写插入自己表的逻辑方法
    }

    

    //  错误信息
    private void insertErrormsg(EfTransportChargeItemDao efTransportChargeItemDao, List<TempRateValueUploadModel>
customersdModel) {
        efTransportChargeItemDao.insertErrormsg(customersdModel);
    }


    private Map<String, String> getColumnValue(List<EfCrTemplateListColBean> colBeans,
List<EfCrTemplateListValueModelBean> beans) {
        Map<String, String> map = new HashMap<>();
        String startDate = "";
        String endDate = "";
        for (EfCrTemplateListColBean colBean : colBeans) {
            String colName = colBean.getMclcColumnName();
            for (EfCrTemplateListValueModelBean colValBean : beans) {
                if (colName.equals(colValBean.getColumnName())) {
                    if (colName.contains("从")) {
                        startDate = colValBean.getColumnValue();
                    } else if (colName.contains("到")) {
                        endDate = colValBean.getColumnValue();
                    }
                }
            }
        }
        map.put("startDate", startDate);
        map.put("endDate", endDate);
        return map;
    }


    private void changeTime(List<EfCrTemplateListValueModelBean> beans, String changeDate, boolean flag) {
        for (EfCrTemplateListValueModelBean colValBean : beans) {
            if (flag && colValBean.getColumnName().contains("从")) {
                colValBean.setColumnValue(changeDate);
            } else if (!flag && colValBean.getColumnName().contains("到")) {
                colValBean.setColumnValue(changeDate);
            }
        }
    }

    /**
     * Description :判断是不是数字
     *
     * @param :str 1
     * @return: boolean
     * @Author: Neil
     * @Create Date: 2019-4-11
     */
    public boolean isNumber(String numberValue) {
        boolean convertSuccess = true;
        try {
            Double.parseDouble(numberValue);
        } catch (Exception e) {
            convertSuccess = false;
        }
        return convertSuccess;
    }

    /**
     * Description :通过反射获取字段值
     *
     * @param :fieldName 1
     * @param :object    2
     * @return: java.lang.String
     * @Author: Neil
     * @Create Date: 2019-4-10
     */
    private String getFieldValueByFieldName(String fieldName, Object object) {
        try {
            PropertyDescriptor propertyDescriptor = new PropertyDescriptor(fieldName, object.getClass());
            Method getMethod = propertyDescriptor.getReadMethod();//获得get方法
            Object value = getMethod.invoke(object);//执行get方法返回一个Object
            System.out.print(fieldName + "---" + value.toString());
            return value.toString();
        } catch (Exception e) {
            log.error(e.getMessage(), e);
        }
        return null;
    }

    /**
     * Description :通过反射获取列个数
     *
     * @param :object 1
     * @return: int
     * @Author: Neil
     * @Create Date: 2019-4-10
     */
    private int getFieldNumValueByClazz(Object object) {
        try {
            Class clazz = object.getClass();
            Field[] fields = object.getClass().getDeclaredFields();//获得属性
            int notNullNum = 0;
            for (Field field : fields) {
                PropertyDescriptor propertyDescriptor = new PropertyDescriptor(field.getName(), clazz);
                Method getMethod = propertyDescriptor.getReadMethod();//获得get方法
                Object value = getMethod.invoke(object);//执行get方法返回一个Object
                if (value != null && !value.equals("")) {
                    notNullNum++;
                }
            } //            log.info(notNullNum);
            
            //bean对象中字段pmCode没值,chargeItemNo 必有值。
            // 而且要忽略,所以从原来所以需要-3 改为-2
            return notNullNum;
        } catch (Exception e) {
            log.error(e.getMessage(), e);
        }
        return 0;
    } }

EasyExcel导出方法

File file = new File(fileName);
			//	第一种方法
                EasyExcel.write(file.getAbsolutePath(), TempRateValueExcel.class).sheet("excel").doWrite(modelList);

                //  上传华为云/服务器
                url = oaRequestUtil.getUploadFile(file);

                log.info("生成excel上传华为云,返回Url:{}", url);
                try {
                //	第二种方法
                WriteSheet sheet0 = EasyExcel.writerSheet(0, "导入费率错误信息").head(TempRateValueExcel.class).build();

                excelWriter = EasyExcel.write(file).build();
                excelWriter
                        .write(modelList, sheet0);
                } catch (Exception e) {
             // 错误信息 e.getMsg
             e.getMessage();
             e.printStackTrace();
        } finally {
            if (excelWriter != null) {
            //	关闭流
                excelWriter.finish();
            }
        }
                
				
内容概要:本文档详细介绍了在三台CentOS 7服务器(IP地址分别为192.168.0.157、192.168.0.158和192.168.0.159)上安装和配置Hadoop、Flink及其他大数据组件(如Hive、MySQL、Sqoop、Kafka、Zookeeper、HBase、Spark、Scala)的具体步骤。首先,文档说明了环境准备,包括配置主机名映射、SSH免密登录、JDK安装等。接着,详细描述了Hadoop集群的安装配置,包括SSH免密登录、JDK配置、Hadoop环境变量设置、HDFS和YARN配置文件修改、集群启动与测试。随后,依次介绍了MySQL、Hive、Sqoop、Kafka、Zookeeper、HBase、Spark、Scala和Flink的安装配置过程,包括解压、环境变量配置、配置文件修改、服务启动等关键步骤。最后,文档提供了每个组件的基本测试方法,确保安装成功。 适合人群:具备一定Linux基础和大数据组件基础知识的运维人员、大数据开发工程师以及系统管理员。 使用场景及目标:①为大数据平台建提供详细的安装指南,确保各组件能够顺利安装和配置;②帮助技术人员快速掌握Hadoop、Flink等大数据组件的安装与配置,提升工作效率;③适用于企业级大数据平台的建与维护,确保集群稳定运行。 其他说明:本文档不仅提供了详细的安装步骤,还涵盖了常见的配置项解释和故障排查建议。建议读者在安装过程中仔细阅读每一步骤,并根据实际情况调整配置参数。此外,文档中的命令和配置文件路径均为示例,实际操作时需根据具体环境进行适当修改。
在无线通信领域,天线阵列设计对于信号传播方向和覆盖范围的优化至关重要。本题要求设计一个广播电台的天线布局,形成特定的水平面波瓣图,即在东北方向实现最大辐射强度,在正东到正北的90°范围内辐射衰减最小且无零点;而在其余270°范围内允许出现零点,且正西和西南方向必须为零。为此,设计了一个由4个铅垂铁塔组成的阵列,各铁塔上的电流幅度相等,相位关系可自由调整,几何布置和间距不受限制。设计过程如下: 第一步:构建初级波瓣图 选取南北方向上的两个点源,间距为0.2λ(λ为电磁波波长),形成一个端射阵。通过调整相位差,使正南方向的辐射为零,计算得到初始相位差δ=252°。为了满足西南方向零辐射的要求,整体相位再偏移45°,得到初级波瓣图的表达式为E1=cos(36°cos(φ+45°)+126°)。 第二步:构建次级波瓣图 再选取一个点源位于正北方向,另一个点源位于西南方向,间距为0.4λ。调整相位差使西南方向的辐射为零,计算得到相位差δ=280°。同样整体偏移45°,得到次级波瓣图的表达式为E2=cos(72°cos(φ+45°)+140°)。 最终组合: 将初级波瓣图E1和次级波瓣图E2相乘,得到总阵的波瓣图E=E1×E2=cos(36°cos(φ+45°)+126°)×cos(72°cos(φ+45°)+140°)。通过编程实现计算并绘制波瓣图,可以看到三个阶段的波瓣图分别对应初级波瓣、次级波瓣和总波瓣,最终得到满足广播电台需求的总波瓣图。实验代码使用MATLAB编写,利用polar函数在极坐标下绘制波瓣图,并通过subplot分块显示不同阶段的波瓣图。这种设计方法体现了天线阵列设计的基本原理,即通过调整天线间的相对位置和相位关系,控制电磁波的辐射方向和强度,以满足特定的覆盖需求。这种设计在雷达、卫星通信和移动通信基站等无线通信系统中得到了广泛应用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值