大数据面试题必会2018.01.07

本文探讨了数据分析师面试中常遇到的高频数据统计问题,包括如何从海量日志中提取访问次数最多的IP、统计最热门的查询串以及找到频数最高的词汇等。提供了多种算法思路和技术实现方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

数据分析师常见的10道面试题解答 
1.海量日志数据,提取出某日访问百度次数最多的那个IP。 
首先是这一天,并且是访问百度的日志中的IP取出来,逐个写入到一个大文件中,注意到IP是32位的,最多有个2*32个IP。同样可以采用映射的方法,比如模1000,把整个大文件映射为1000个小文件,再找出每个小文件中出现频率最大的IP(可以采用hash_map进行频率统计,然后再找出频率最大的几个)及相应的频率。然后再在这1000个最大的IP中,找出那个频率最大的IP,即为所求。 
或者如下阐述: 
算法思想:分而治之+hash 
IP地址最多有2*32=4G中取值情况,所以不能完全加载到内存中处理: 
可以考虑采用“分而治之”的思想,按照IP地址的Hash(IP)24值,把海量IP日志分别存储到1024个小文件中。这样,每个小文件最多包含4MB个IP地址; 
对于每一个小文件,可以构建一个IP为key,出现次数为value的Hash map,同时记录当前出现次数最多的那个IP地址; 
可以得到1024个小文件中的出现次数最多的IP,再依据常规的排序算法得到总体上出现次数最多的IP; 
2.搜索引擎会通过日志文件把用户每次检索使用的所有检索串都记录下来,每个查询串的长度为1-255字节。 
假设目前有一千万个记录(这些查询串的重复度比较高,虽然总数是1千万,如果出去重复后,不超过3百万个。一个查询串的重复度越高,说明查询它的用户越多,也就是越热门。)请你统计最热门的10个查询串,要求使用的内存不超过1G。 
典型的TOP k算法,还是在这篇文章里头有所阐述。文中,给出的最终算法是: 
第一步,先对这批海量数据预处理,在o(N)的时间内使用Hash表完成统计(之前写成了排序,特此订正。July,2011.04.27); 
第二步,借助这个数据结构,找出Top K,时间复杂度为N’logK。 
即,借助堆结构,我们可以在log量级的时间内查找和调整/移动、因此,维护一个K(该题目中是10)大小的小根堆,然后遍历300万的Query,分别和根元素进行对比所以,我们最终的时间复杂度是:O(N)+N’O(logK)(N为1000万,N’为300万) 
或者:采用trie树,关键字域存该查询串出现的次数,没有出现为0.最后用10个元素的最小推来对出现频率进行排序。 
3.有一个1G大小的文件,里面每一行是一个词,词的大小不超过16字节,内存限制大小是1M,返回频数最高的100个词。 
方案:顺序读文件中,对于每个词x,取hash(x)P00,然后按照该值存到5000个小文件(记为x0,x1,x4999)中。这样每个文件大概是200k左右。 
如果其中的文件超过了1M大小,还可以按照类似的方法继续往下分,直到分解得到的小文件的大小都不超过1M。 
对每个小文件中,统计每个文件中出现的词以及相应的频率(可以采用trie树/hash_map等)并取出出现频率最大的100个词(可以用含100个结点的最小堆)并把100个词及相应的频率存入文件,这样又得到了5000个文件,下一步就是把这5000个文件进行归并(类似与归并排序)的过程了。 
4.有10个文件,每个文件1G,每个文件的每一行存放的都是用户的Query,每个文件的query都可能重复。要求你按照query的频度排序。 
还是典型的Top K算法,解决方案如下: 
方案1:顺序读取10个文件,按照hash(query)的结果将query写入到另外10个文件(记为)中。这样新生成的文件每个的大小大约也1G(假设hash函数是随机的)

转载地址:https://blog.youkuaiyun.com/weixin_41462230/article/details/78998755

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值