海量数据统计频率最高词汇的常规办法之一是先通过一个hash函数处理数据然后取模N,拆分为N个小文件,对每一个小文件进行词频统计和排序处理,然后归并N个小文件取频率最大的M个数。
下面程序是利用hash_map处理小文件词频的实现(堆排序部分的代码没加上,可以参见http://blog.youkuaiyun.com/wodet/article/details/16948511)
海量数据处理中,常用方法是将数据分散到多个小文件,分别统计词频,再进行归并。本文介绍了利用hash_map进行小文件词频统计,虽然未展示堆排序部分,但强调了hash_map与map在性能和稳定性上的权衡,hash_map在平均性能上更优,适合快速统计。
海量数据统计频率最高词汇的常规办法之一是先通过一个hash函数处理数据然后取模N,拆分为N个小文件,对每一个小文件进行词频统计和排序处理,然后归并N个小文件取频率最大的M个数。
下面程序是利用hash_map处理小文件词频的实现(堆排序部分的代码没加上,可以参见http://blog.youkuaiyun.com/wodet/article/details/16948511)

被折叠的 条评论
为什么被折叠?