FP树的并行的大概算法就是把数据分小(并不是简单的分,分完后可以保证没有丢失频繁项),然后再使用每份小数据进行建树、挖掘树。那么mahout的FPGrowthDriver是如何分数据呢?其实前面也大概说了下,只是不是很特别的说明,在这里举例来说明:
比如如下的f-list: [0,1,2,3,4,5,6,7,8,9,10,11,12,13,14] ,
事务集如下:
[0,1,2,4,7,8,9,10,11,12]
[1,4,5]
[1,5,10,13]
[5,14]
[5,6,7]
假设根据f-list和上面的事务集建立的fp-tree比较大,放入不了内存,那么可以考虑把数据分为两组,那么按照mahout的做法是g-list分别如下:
[0,1,2,3,4,5,6,7,8,9,10,11,12,13,14]和[0,1,2,3,4,5,6,7]
其相应的事务集分别对应如下:
[0,1,2,4,7,8,9,10,11,12]
[1,5,10,13]
[5,14]
和
[0,1,2,4,7]
[1,4,5]
[1,5]
[5]
[5,6,7]这样一来,建立了两个fp-tree,并且这两个fp-tree都比原来的那个要小,可以完全放入内存了。(不过这样挖掘出来的频繁项不会丢失,但是会有重复,)。
最后贴上mahout里面分数据的代码:
String[] items = splitter.split(input.toString());
OpenIntHashSet itemSet = new OpenIntHashSet();
for (String item : items) {
if (fMap.containsKey(item) && !item.trim().isEmpty()) {
itemSet.add(fMap.get(item));
}
}
IntArrayList itemArr = new IntArrayList(itemSet.size());
itemSet.keys(itemArr);
itemArr.sort();
OpenIntHashSet groups = new OpenIntHashSet();
for (int j = itemArr.size() - 1; j >= 0; j--) {
// generate group dependent shards
int item = itemArr.get(j);
int groupID = PFPGrowth.getGroup(item, maxPerGroup);
if (!groups.contains(groupID)) {
IntArrayList tempItems = new IntArrayList(j + 1);
tempItems.addAllOfFromTo(itemArr, 0, j);
context.setStatus("Parallel FPGrowth: Generating Group Dependent transactions for: " + item);
wGroupID.set(groupID);
context.write(wGroupID, new TransactionTree(tempItems, 1L));
}
groups.add(groupID);
}
分享,快乐,成长
本文详细解析了Mahout的FPGrowthDriver如何通过将大量数据分组来解决FP树构建内存溢出的问题。通过实例演示了如何将原始数据集划分为较小的数据组,构建更易于管理的FP树,从而实现频繁项集的高效挖掘。同时,文章还提供了Mahout内部数据分组的代码片段,帮助理解实现细节。
8372

被折叠的 条评论
为什么被折叠?



