阅读原文:http://c.raqsoft.com.cn/article/1544235144250?r=alice
要在 Java 代码中实现类似 SQL 中的 GroupBy 分组聚合运算,是比较繁琐的,通常先要声明数据结构(Java 实体类),然后用 Java 集合进行循环遍历,最后根据分组条件添加到某个子集合中。Java 8 有了 Lambda(stream)代码简洁了许多,分组后往往还要跟着聚合操作,仍然需要单写聚合函数 sum(),count(*),topN()等。这些还都是最常规的分组和聚合运算,遇到对位分组、枚举分组、多重分组等非常规分组加上其他聚集函数 (FIRST,LAST…),代码就变得非常冗长且不通用。如果能有一个中间件专门负责这类计算,采用类似 SQL 脚本做算法描述,在 Java 中直接调用脚本并返回结果集就好了。Java 版集算器和 SPL 脚本,就是这样的机制,下面举例说明如何使用。
SPL 实现
-
常规分组
duty.xlsx 文件中保存着每个人的加班记录:
| workday | name |
| 2016-02-05 | Ashley |
| 2016-02-08 | Ashley |
| 2016-02-09 | Ashley |
| 2016-02-10 | Johnson |
| 2016-02-11 | Johnson |
| 2016-02-12 | Johnson |
| 2016-02-15 | Ashley |
| 2016-02-16 | Ashley |
| 2016-02-17 | Ashley |
汇总每个人的值班天数:
| A | |
| 1 | =file("/Users/test/duty.xlsx").importxls@tx() |
| 2 | =A1.groups(name;count(name):count) |

保存脚本文件CountName.dfx(嵌入 Java 会用到)
-
每组 TopN
取每个月、每个人、头三天的加班记录
| A | |
| 1 | =file("/Users/test/duty.xlsx").importxls@tx() |
| 2 | =A1.group(month(workday):mon,name;~.top(3):top3) |

保存脚本文件RecMonTop3.dfx(嵌入 Java 会用到)
Java 调用
SPL 嵌入到 Java 应用程序十分方便,通过 JDBC 调用存储过程方法加载,用常规分组保存的文件CountName.dfx,示例调用如下:
...
Connection con = null;
Class.forName("com.esproc.jdbc.InternalDriver");
con= DriverManager.getConnection("jdbc:esproc:local://");
//è°ç¨åå¨è¿ç¨ï¼å¶ä¸CountNameæ¯dfxçæä»¶å
st =(com. esproc.jdbc.InternalCStatement)con.prepareCall("call CountName()");
//æ§è¡åå¨è¿ç¨
st.execute();
//è·åç»æé
ResultSet rs = st.getResultSet();
...
... Connection con = null; Class.forName("com.esproc.jdbc.InternalDriver"); con= DriverManager.getConnection("jdbc:esproc:local://"); //调用存储过程,其中CountName是dfx的文件名 st =(com. esproc.jdbc.InternalCStatement)con.prepareCall("call CountName()"); //执行存储过程 st.execute(); //获取结果集 ResultSet rs = st.getResultSet(); ...
替换成 RecMonTop3.dfx 是同样的道理,只需 call RecMonTop3() 即可,也可同时返回两个结果集。这里只用 Java 片段粗略解释了如何嵌入 SPL,详细步骤请参阅 Java 如何调用 SPL 脚本 ,也非常简单,不再赘述。同时,SPL 也支持 ODBC 驱动,集成到支持 ODBC 的语言,嵌入过程类似。
其他分组可阅读原文:http://c.raqsoft.com.cn/article/1544235144250?r=alice
本文介绍使用SPL脚本简化Java中的复杂分组聚合运算,如常规分组、每组TopN等,通过示例展示如何在Java中调用SPL脚本执行高效的数据处理。
290

被折叠的 条评论
为什么被折叠?



