1、分布式搜索引擎与稳定匹配机制的探索

分布式搜索引擎与稳定匹配机制的探索

1. 分布式搜索引擎的需求与挑战

1.1 传统搜索引擎的困境

传统的标准 Web 搜索引擎主要由两部分构成:离线部分负责抓取网页(爬虫程序)并构建文本内容索引(索引器);在线部分则处理查询流(查询处理器)。从用户角度来看,对搜索引擎有三个主要要求:高质量的答案、短响应时间以及索引中包含大量的 Web 集合。

随着互联网用户数量的剧增,要满足这些需求,就需要强大的硬件和软件基础设施来处理大量数据的索引和高查询吞吐量。以拥有 1000 亿个网页为例,至少需要 500TB 的文本或约 100TB 的索引。为了提高效率,大部分索引需要存储在内存中,每个集群可能需要约 2500 台计算机来存储索引。

假设一个集群每秒能处理 1000 个查询,若每天要处理 5 亿个查询,平均每秒需要处理 5800 个查询,高峰时每秒约 12000 个查询,那么至少需要复制系统 12 次,总共至少需要 30000 台计算机。部署这样的系统成本可能超过一亿美元,还不包括人员、电力、带宽等拥有成本。如果 Web 规模扩大 10 倍,查询流量翻倍,所需计算机数量将达到至少 50 万台,这显然不太现实。

1.2 分布式搜索引擎的优势

集中式 Web 搜索引擎在经济上有一定吸引力,但系统架构师可能忽视了在靠近终端用户的地方设置小型数据中心的潜在优势。实际上,分布式 Web 搜索架构是解决 Web 搜索可扩展性问题的潜在方案。

分布式搜索引擎具有诸多优势,例如:
- 接近数据和用户 :搜索引擎靠近 Web 数据和用户,能减少完成相同抓取任务所需的机器数

根据原作 https://pan.quark.cn/s/459657bcfd45 的源码改编 Classic-ML-Methods-Algo 引言 建立这个项目,是为了梳理和总结传统机器学习(Machine Learning)方法(methods)或者算法(algo),和各位同仁相互学习交流. 现在的深度学习本质上来自于传统的神经网络模型,很大程度上是传统机器学习的延续,同时也在不少时候需要结合传统方法来实现. 任何机器学习方法基本的流程结构都是通用的;使用的评价方法也基本通用;使用的一些数学知识也是通用的. 本文在梳理传统机器学习方法算法的同时也会顺便补充这些流程,数学上的知识以供参考. 机器学习 机器学习是人工智能(Artificial Intelligence)的一个分支,也是实现人工智能最重要的手段.区别于传统的基于规则(rule-based)的算法,机器学习可以从数据中获取知识,从而实现规定的任务[Ian Goodfellow and Yoshua Bengio and Aaron Courville的Deep Learning].这些知识可以分为四种: 总结(summarization) 预测(prediction) 估计(estimation) 假想验证(hypothesis testing) 机器学习主要关心的是预测[Varian在Big Data : New Tricks for Econometrics],预测的可以是连续性的输出变量,分类,聚类或者物品之间的有趣关联. 机器学习分类 根据数据配置(setting,是否有标签,可以是连续的也可以是离散的)和任务目标,我们可以将机器学习方法分为四种: 无监督(unsupervised) 训练数据没有给定...
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值