今日效率有点低了,早上仅仅完成了代码的融合部分,到下午为了能在那堆14万session的数据集上跑出一个结果搞了半天还是不行!可以断定用GSP在如此大的数据集上做频繁序列挖掘是几乎不可能完成的,每次都要做数据库扫描这种方法明显不可能!spade算法在计算支持度的时候利用了已有频繁序列的计数,因此在计算支持度的时候只需要计算序列某个子集下的计数,大大减少了全表扫描的及数量!明天实现以下才行~还有~~今天出去过程中静下心来想了一下问题还是对项目有帮助的,至少想到了一个比较可行(比GSP)可行的在大数据上运行的方案,等明天再把代码发上来。