网络搜索引擎

目录

介绍

信息检索的基本概念

文本和网页预处理

非索引字删除

堵塞

文本的其他预处理任务

网页预处理

重复检测

网络搜索

分步演练

结论和兴趣点


text-mining.ro 主页

介绍

网络搜索不需要介绍。由于其便利性和网络上信息的丰富性,搜索网络正日益成为主要的信息搜索方法。人们去图书馆的次数越来越少,但在网络上的搜索却越来越多。Web搜索起源于信息检索(或简称IR),这是一个帮助用户从大量文本文档中查找所需信息的研究领域。传统的IR假设基本信息单元是一个文档,并且有大量的文档可用于形成文本数据库。在Web上,文档是网页。

检索信息仅意味着查找与用户查询相关的一组文档。通常还会根据文档集与查询的相关性分数来执行文档集的排名。最常用的查询格式是关键字列表,也称为术语。IR与使用SQL查询的数据库中的数据检索不同,因为数据库中的数据是高度结构化的,存储在关系表中,而文本中的信息是非结构化的。没有像SQL这样的结构化查询语言用于文本检索。

可以肯定地说,网络搜索是IR最重要的应用。在很大程度上,网络搜索也有助于IR。事实上,搜索引擎的巨大成功已经将IR推向了中心舞台。然而,搜索不仅仅是传统IR模型的简单应用。它使用了一些红外结果,但它也有其独特的技术,给红外研究带来了许多新问题。

首先,效率是Web搜索的首要问题,但在传统IR系统中只是次要问题,主要是因为大多数IR系统中的文档集合不是很大。但是,网络上的页面数量是巨大的。例如,在撰写本文时,谷歌索引了超过8亿页。网络用户也需要非常快速的响应。无论算法多么有效,如果检索不能有效地完成,很少有人会使用它。

网页也与传统IR系统中使用的传统文本文档有很大不同。首先,网页有超链接和锚文本,这在传统文档中是不存在的(研究出版物中的引用除外)。超链接对于搜索极为重要,在搜索排名算法中起着核心作用,我们将在下一节中看到。与超链接关联的锚文本也很重要,因为一段锚文本通常是对其超链接所指向的页面的更准确描述。其次,网页是半结构化的。网页不像传统文档那样只是几段文本。网页具有不同的字段,例如标题、元数据、正文等。某些字段(例如,标题字段)中包含的信息比其他字段更重要。此外,页面中的内容通常以多个结构化块(矩形)进行组织和呈现。有些块很重要,有些则不重要(例如,广告、隐私政策、版权声明等)。有效地检测网页的主要内容块对Web搜索很有用,因为出现在这些块中的术语更为重要。

最后,垃圾邮件Web上的一个主要问题,但对传统IR来说不是问题。之所以如此,是因为搜索引擎返回的页面的排名位置非常重要。如果一个页面与查询相关,但排名非常低(例如,低于前30名),那么用户不太可能查看该页面。如果页面销售产品,那么这对业务不利。为了提高某些目标页面的排名,非法手段,称为垃圾邮件,通常用于提高其排名位置。检测和打击网络垃圾邮件是一个关键问题,因为它可以将低质量(甚至不相关)的页面推到搜索排名的顶部,从而损害搜索结果的质量和用户的搜索体验。

通用IR系统架构

信息检索的基本概念

信息检索(IR)是帮助用户查找符合其信息需求的信息的研究。从技术上讲,IR研究信息的获取、组织、存储、检索和分发。从历史上看,I是关于文档检索的,强调文档是基本单位。具有信息需求的用户通过查询操作模块向检索系统发出查询(user query)。检索模块使用文档索引来检索那些包含某些查询词的文档(此类文档可能与查询相关),计算它们的相关性分数,然后根据分数对检索到的文档进行排名。然后,排名后的文档将呈现给用户。文档集合也称为文本数据库,它由索引器编制索引,以便进行高效检索。

用户查询表示用户的信息需求,其形式如下:

  1. 关键字查询:用户使用(至少一个)关键字(或术语)列表来表达他/她的信息需求,旨在查找包含部分(至少一个)或所有查询术语的文档。假定列表中的术语与逻辑AND的“软”版本相关联。例如,如果有兴趣查找有关Web挖掘的信息,则可以向IR或搜索引擎系统发出查询“Web挖掘”。“Web mining”被撤回为“Web AND mining”。然后,检索系统会找到那些可能相关的文档,并对它们进行适当的排序以呈现给用户。请注意,检索到的文档不必包含查询中的所有术语。在一些红外系统中,单词的顺序也很重要,会影响检索结果。
  2. 布尔查询:用户可以使用布尔运算符AND、OR和NOT来构造复杂的查询。因此,此类查询由术语和布尔运算符组成。例如,“data OR Web”是一个布尔查询,它请求包含单词“data”或“Web”的文档。如果布尔查询在页面中逻辑上为true(即完全匹配),则返回该页面。尽管可以使用这三个运算符编写复杂的布尔查询,但用户很少编写此类查询。搜索引擎通常支持受限版本的布尔查询。
  3. 短语查询:此类查询由构成短语的一系列单词组成。每个返回的文档必须至少包含该短语的一个实例。在搜索引擎中,短语查询通常用双引号括起来。例如,可以发出以下短语查询(包括双引号),“Web挖掘技术和应用程序”来查找包含确切短语的文档。
  4. 邻近查询:邻近查询是短语查询的简化版本,可以是术语和短语的组合。邻近查询查找彼此非常接近的查询词。接近度用作对返回的文档或页面进行排名的一个因素。例如,包含所有查询词的文档被认为比查询词相距很远的页面更相关。某些系统允许用户指定查询词之间允许的最大距离。大多数搜索引擎在检索时都会考虑术语邻近性和术语排序。
  5. 完整文档查询:当查询是完整文档时,用户希望查找与查询文档类似的其他文档。一些搜索引擎(例如,Google)允许用户通过提供查询页面的URL来发出这样的查询。此外,在搜索引擎返回的结果中,每个片段可能都有一个名为“更像这个”或“类似页面”的链接。当用户单击链接时,将返回一组与代码段中的页面类似的页面。
  6. 自然语言问题:这是最复杂的情况,也是最理想的情况。用户将他/她的信息需求表达为自然语言问题。然后系统会找到答案。然而,由于自然语言理解的困难,这样的查询仍然很难处理。然而,这是一个活跃的研究领域,称为问答。一些检索系统开始为某些特定类型的问题提供问答服务,例如定义问题,要求对技术术语进行定义。定义问题通常更容易回答,因为有很强的语言模式表明定义句子,例如,“定义为”、“指代”等。通常可以脱机提取定义。

查询操作模块的范围可以从非常简单到非常复杂。在最简单的情况下,它什么都不做,只是在一些简单的预处理后将查询传递给检索引擎,例如,删除停用词(在文本中经常出现但意义不大的词,例如,“the”“a”“in”等)。我们将在下一节中讨论文本预处理。在更复杂的情况下,它需要将自然语言查询转换为可执行查询。它还可以接受用户反馈,并使用它来扩展和优化原始查询。

索引器是在某些数据结构中对原始原始文档进行索引以实现高效检索的模块。结果是文档索引。在下一节中,我们将研究一种特殊类型的索引方案,称为倒排索引,它用于搜索引擎和大多数IR系统。倒排索引易于构建,搜索效率也非常高。

检索系统计算每个索引文档与查询的相关性分数。根据其相关性分数,对文档进行排名并呈现给用户。请注意,它通常不会将用户查询与集合中的每个文档进行比较,这太低效了。相反,首先从索引中仅找到包含至少一个查询词的一小部分文档,然后仅针对此文档子集计算与用户查询的相关性分数。

文本和网页预处理

在使用集合中的文档进行检索之前,通常会执行一些预处理任务。对于传统的文本文档(没有HTML标记),任务是删除非索引字、词干提取以及处理数字、连字符、标点符号和字母大小写。对于网页,还需要仔细考虑其他任务,例如删除HTML标记和识别主要内容块。我们将在本节中讨论它们。

非索引字删除

停用词是语言中经常出现的无关紧要的词,有助于构建句子,但不代表文档的任何内容。冠词、介词和连词以及一些代词是自然的候选词。英语中常见的停用词包括:aaboutanareasatbebyforfromhowinisofonorthatthethesethistowaswhatwhenwherewhowillwith。在对文档进行索引和存储之前,应删除此类词语。在执行检索之前,还会删除查询中的非索引字。

堵塞

在许多语言中,一个词具有各种句法形式,具体取决于它所使用的上下文。例如,在英语中,名词有复数形式,动词有动名词形式(通过添加“ing”),过去时态使用的动词与现在时态不同。这些被认为是相同词根形式的句法变体。这种变化会导致检索系统的召回率较低,因为相关文档可能包含查询词的变体,但不包含确切的单词本身。这个问题可以通过词干提取部分解决。

词干提取是指将单词还原为词干或词根的过程。词干是单词在去除其前缀和后缀后留下的部分。在英语中,单词的大多数变体都是通过引入后缀(而不是前缀)生成的。因此,英语中的词干提取通常意味着后缀删除或剥离。例如,“computer”“computing”“compute”被简化为“comput”“walks”“walking”“walker”被简化为“walk”。词干提取可以在检索中考虑单词的不同变体,从而提高回忆率。有几种词干提取算法,也称为词干提取器。

多年来,许多研究人员评估了使用词干提取的优缺点。显然,词干提取增加了召回率并减小了索引结构的大小。但是,它可能会损害准确性,因为许多不相关的文档可能被认为是相关的。例如,“cop”“cope”都简化为词干“cop”。但是,如果正在寻找有关警察的文件,则仅包含“cope”的文件不太可能相关。尽管研究人员已经进行了许多实验,但仍然没有确凿的证据。在实践中,应该尝试使用手头的文档集合,看看词干提取是否有帮助。

文本的其他预处理任务

数字:在传统的IR系统中,包含数字的数字和术语被删除,但某些特定类型除外,例如日期、时间和其他用正则表达式表示的预先指定类型。但是,在搜索引擎中,它们通常被编入索引。

连字符:通常使用断字符来处理用法的不一致。例如,有些人使用最先进的,但其他人使用最先进的。如果删除了第一种情况下的连字符,我们将消除不一致问题。但是,有些单词可能带有连字符作为单词的组成部分,例如“Y-21”。因此,一般来说,系统可以遵循一般规则(例如,删除所有连字符),并且也有一些例外。请注意,有两种类型的删除,即(1)每个连字符替换为空格,以及(2)简单地删除每个连字符而不留下空格,以便最先进的可以替换为最先进的“stateoftheart”。在某些系统中,由于很难确定哪个是正确的,因此两种表单都被索引,例如,如果将预处理转换为预处理,则如果查询词为预处理,则找不到某些相关页面。

标点符号:标点符号可以像连字符一样处理。

字母大小写:所有字母通常转换为大写或小

网页预处理

我们在本节的开头已经指出,网页不同于传统的文本文档。因此,需要额外的预处理。我们在下面描述一些重要的。

识别不同的文本字段:在HTML中,有不同的文本字段,例如标题、元数据和正文。识别它们允许检索系统以不同的方式处理不同字段中的术语。例如,在搜索引擎中,出现在页面标题字段中的术语被认为比出现在其他字段中的术语更重要,并且被赋予更高的权重,因为标题通常是页面的简明描述。在正文中,那些强调的术语(例如,在标题标签下<h1><h2>...、粗体标签<b>等)也被赋予更高的权重。

识别锚文本:与超链接关联的锚文本在搜索引擎中会受到特殊处理,因为锚文本通常表示对其链接指向的页面中包含的信息的更准确描述。如果超链接指向外部页面(不在同一站点中),则它特别有价值,因为它是由其他人而不是页面的作者/所有者提供的页面摘要描述,因此更值得信赖。

删除HTML标记:删除 HTML标记的处理方式与标点符号类似。有一个问题需要仔细考虑,它会影响邻近查询和短语查询。HTML本质上是一种可视化表示语言。在典型的商业页面中,信息以许多矩形块的形式呈现。简单地删除HTML标记可能会因连接不应联接的文本而导致问题。它们将导致短语查询和邻近查询出现问题。在写这本书的时候,搜索引擎还没有令人满意地处理这个问题。

识别主要内容块:典型的网页,尤其是商业页面,包含大量不属于页面主要内容的信息。例如,它可能包含横幅广告、导航栏、版权声明等,这可能会导致搜索和挖掘结果不佳。在维基百科中,页面的主要内容块是包含今日精选文章的块。不希望将导航链接的锚文本作为此页面内容的一部分进行索引。几位研究人员研究了识别主要内容块的问题。他们表明,如果只使用主要内容块,搜索和数据挖掘结果可以得到显着改善。我们简要讨论了在网页中查找此类块的两种技术。

重复检测

在传统的IR中,重复的文档或页面不是问题。然而,在Web的背景下,这是一个重要的问题。Web上有不同类型的页面和内容复制。复制页面通常称为复制或复制,复制整个网站称为镜像。由于不同地理区域的带宽有限以及网络性能不佳或不可预测,重复页面和镜像站点通常用于提高全球浏览和文件下载的效率。当然,一些重复的页面是抄袭的结果。检测此类页面和网站可以减小索引大小并改善搜索结果。可以使用多种方法来查找重复信息。最简单的方法是对整个文档进行哈希处理,例如,使用MD5算法,或计算聚合数字(例如,校验和)。但是,这些方法仅对检测精确重复项有用。在网络上,人们很少能找到完全相同的重复项。例如,即使是不同的镜像站点也可能具有不同的URL、不同的网站管理员、不同的联系信息、不同的广告以满足本地需求等。

网络搜索

我们现在把它们放在一起,描述搜索引擎的工作原理。由于很难知道商业搜索引擎的内部细节,因此本节的大部分内容都是基于研究论文,尤其是早期的谷歌论文。由于效率问题,潜在语义索引可能尚未用于Web搜索。目前的搜索算法仍然主要基于向量空间模型和术语匹配。

搜索引擎从抓取Web上的页面开始。然后对已爬网的页面进行解析、索引和存储。在查询时,索引用于高效检索。我们不会在这里讨论爬行。搜索引擎的后续操作描述如下:

  • 解析:解析器用于解析输入HTML页面,该页面生成要编制索引的标记或术语流。解析器可以使用词法分析器生成器(如YACC和Flex(来自GNU项目)来构建。前面几节中描述的一些预处理任务也可以在解析之前或之后执行。
  • 索引:此步骤将生成倒排索引,可以使用前面部分中描述的任何方法完成。为了提高检索效率,搜索引擎可能会构建多个倒置索引。例如,由于标题和锚文本通常是对页面的非常准确的描述,因此可以仅根据其中出现的术语来构建一个小的倒排索引。请注意,此处的锚文本用于索引其链接指向的页面,而不是包含它的页面。然后,根据每个页面中的所有文本(包括锚文本)构建完整索引(一段锚文本既会为包含它的页面,也会为其链接指向的页面编制索引)。在搜索中,算法可以先搜索小索引,然后再搜索完整索引。如果在小索引中找到足够数量的相关页面,系统可能无法在完整索引中搜索。
  • 搜索和排名:给定用户查询,搜索涉及以下步骤:
    • 使用前几节中描述的一些方法对查询词进行预处理,例如,删除停用词和词干提取;
    • 在倒排索引中查找包含所有(或大部分)查询词的页面;
    • 对页面进行排名并将其返回给用户。

排名算法是搜索引擎的核心。然而,人们对商业搜索引擎中使用的算法知之甚少。我们根据早期谷歌系统中的算法给出一个一般的描述。正如我们之前所讨论的,传统的IR使用余弦相似度值或任何其他相关度量来对文档进行排名。这些措施仅考虑每个文件的内容。对于Web来说,这种基于内容的方法是不够的。问题在于,在网络上,几乎任何查询都有太多的相关文档。例如,使用网络挖掘作为查询,搜索引擎谷歌估计有46,500,000个相关页面。显然,任何用户都不可能查看如此庞大的页面。因此,问题在于如何对页面进行排名并在顶部向用户展示最佳页面。

网络上一个重要的排名因素是页面的质量,这在传统的IR中几乎没有研究过,因为IR评估中使用的大多数文档都来自可靠的来源。然而,在网络上,任何人都可以发布几乎任何东西,所以没有质量控制。尽管页面可能是100%相关的,但由于多种原因,它可能不是高质量的页面。例如,作者可能不是查询主题的专家,页面中给出的信息可能不可靠或有偏见等。

但是,Web确实有一个重要的机制,即超链接(链接),可以在一定程度上用于评估每个页面的质量。从第x页到第y页的链接是第x页到第y页的隐式权限传递。也就是说,第x页的作者认为第y页包含质量或权威信息。也可以将第x页指向第y页这一事实视为第x页对第y页的投票。可以利用Web的这种民主性质来评估每个页面的质量。一般来说,一个页面收到的票数越多,它就越有可能是一个高质量的页面。实际的算法比简单地计算指向页面的投票数或链接数(称为内链接)更复杂。我们将在下一章中描述这些算法。PageRank是最著名的此类算法。它利用网页的链接结构来计算每个页面的质量或声誉分数。因此,可以根据网页的内容因素和声誉来评估网页。基于内容的评估取决于两种信息:

  • 出现类型:页面中有几种类型的查询词出现
    • 标题:查询词出现在页面的标题字段中。
    • 锚点文本:查询词出现在指向当前正在评估的页面的锚点文本中。
    • URL查询词出现在页面的URL中。许多URL地址都包含页面的一些描述。例如,Web挖掘上的页面可能具有URL http://www.domain.edu/Web-mining.html。
    • 正文:查询词出现在页面的正文字段中。在这种情况下,将考虑每个术语的突出性。突出是指在文本中是否使用大字体、粗体和/或斜体标签强调该术语。可以在系统中使用不同的突出级别。请注意,页面中的锚文本可以被视为纯文本,以便对页面进行评估。
  • 计数:每种类型的术语的出现次数。例如,查询词可能会在页面的标题字段中出现2次。然后,该术语的标题计数为2。
  • 位置:这是每个术语在每种事件类型中的位置。该信息用于涉及多个查询词的邻近评估。彼此靠近的查询词比相距较远的查询词更好。此外,以与查询相同的顺序出现在页面中的查询词也更好。

对于基于内容的分数(也称为IR分数)的计算,每种出现类型都会被赋予一个关联的权重。所有类型的权重都形成一个固定的向量。每个原始项计数都转换为计数权重,所有计数权重也形成一个向量。

现在让我们看一下两种查询,单字查询和多字查询。单个单词查询是只有单个术语的最简单情况。从倒排索引中获取包含该项的页面后,我们计算类型权重向量和每个页面的计数权重向量的点积,从而得到页面的IR分数。然后,将每个页面的IR分数与其声誉分数相结合,以产生该页面的最终分数。

对于多词查询,情况类似,但更复杂,因为现在存在考虑术语邻近性和排序的问题。让我们通过忽略页面中的术语排序来简化问题。显然,页面中彼此靠近的术语的权重应该高于相距较远的术语。因此,需要匹配多个出现的术语,以便可以识别附近的术语。对于每个匹配的集,都会计算一个邻近值,该值基于页面中术语的相距。此外,还会计算每种类型和邻近度的计数。每个类型和邻近度对都有一个类型邻近权重。计数将转换为计数权重。计数权重和类型邻近权重的点积为页面提供IR分数。术语排序可以类似地考虑并包含在IR分数中,然后将其与页面声誉分数相结合以产生最终的排名分数。

搜索引擎近乎实时地维护以下过程:网络爬虫、索引、搜索。

这张图片显示了Web Crawler的架构。

我的网络爬虫在行动。

分步演练

用于创建MySQL数据库的Python脚本:

def create_database():
    try:
        connection = mysql.connector.connect(host=HOSTNAME, database=DATABASE,\
                                             user=USERNAME, password=PASSWORD,\
                                             autocommit=True)
        server_info = connection.get_server_info()
        print("MySQL connection is open on", server_info)
        sql_drop_table = "DROP TABLE IF EXISTS `occurrence`"
        cursor = connection.cursor()
        cursor.execute(sql_drop_table)
        sql_drop_table = "DROP TABLE IF EXISTS `keyword`"
        cursor.execute(sql_drop_table)
        sql_drop_table = "DROP TABLE IF EXISTS `webpage`"
        cursor.execute(sql_drop_table)
        sql_create_table = "CREATE TABLE `webpage` \
                            (`webpage_id` BIGINT NOT NULL AUTO_INCREMENT, " \
                           "`url` VARCHAR(256) NOT NULL, `title` VARCHAR(256) NOT NULL, " \
                           "`content` TEXT NOT NULL, PRIMARY KEY(`webpage_id`)) ENGINE=InnoDB"
        cursor.execute(sql_create_table)
        sql_create_table = "CREATE TABLE `keyword` \
                            (`keyword_id` BIGINT NOT NULL AUTO_INCREMENT, " \
                           "`name` VARCHAR(256) NOT NULL, \
                            PRIMARY KEY(`keyword_id`)) ENGINE=InnoDB"
        cursor.execute(sql_create_table)
        sql_create_table = "CREATE TABLE `occurrence` (`webpage_id` BIGINT NOT NULL, " \
                           "`keyword_id` BIGINT NOT NULL, `counter` BIGINT NOT NULL, " \
                           "`pagerank` REAL NOT NULL, \
                            PRIMARY KEY(`webpage_id`, `keyword_id`), " \
                           "FOREIGN KEY webpage_fk(webpage_id) \
                            REFERENCES webpage(webpage_id), " \
                           "FOREIGN KEY keyword_fk(keyword_id) \
                            REFERENCES keyword(keyword_id)) ENGINE=InnoDB"
        cursor.execute(sql_create_table)
        sql_create_index = "CREATE OR REPLACE UNIQUE INDEX index_name ON `keyword`(`name`)"
        cursor.execute(sql_create_index)
        sql_no_of_words = "CREATE OR REPLACE FUNCTION no_of_words\
                          (token VARCHAR(256)) RETURNS " \
                          "REAL READS SQL DATA RETURN (SELECT MAX(`counter`) \
                          FROM `occurrence` " \
                          "INNER JOIN `keyword` USING(`keyword_id`) WHERE `name` = token)"
        cursor.execute(sql_no_of_words)
        sql_no_of_pages = "CREATE OR REPLACE FUNCTION \
                          no_of_pages(token VARCHAR(256)) RETURNS " \
                          "REAL READS SQL DATA RETURN \
                          (SELECT COUNT(`webpage_id`) FROM `occurrence` " \
                          "INNER JOIN `keyword` USING(`keyword_id`) WHERE `name` = token)"
        cursor.execute(sql_no_of_pages)
        sql_total_pages = "CREATE OR REPLACE FUNCTION total_pages() \
                          RETURNS REAL READS SQL DATA " \
                          "RETURN (SELECT COUNT(`webpage_id`) FROM `webpage`)"
        cursor.execute(sql_total_pages)
        sql_data_mining = "CREATE OR REPLACE FUNCTION data_mining\
                          (webpage_no BIGINT, token VARCHAR(256)) " \
                          "RETURNS REAL READS SQL DATA RETURN \
                          (SELECT SUM(`counter`)/no_of_words(token)*" \
                          "LOG((1+total_pages())/no_of_pages(token)) \
                          FROM `occurrence` INNER JOIN `keyword` " \
                          "USING(`keyword_id`) WHERE `name` = token \
                          AND `webpage_id` = webpage_no)"
        cursor.execute(sql_data_mining)
    except mysql.connector.Error as err:
        print("MySQL connector error:", str(err))
        return False
    finally:
        if connection.is_connected():
            cursor.close()
            connection.close()
            print("MySQL connection is now closed")
        return True

用于在队列中添加和删除URLPython脚本:

def add_url_to_frontier(url):
    global visited_urls
    global frontier_array
    global frontier_score
    found = False
    if url.find('#') > 0:
        url = url.split('#')[0]
    if url.endswith('.3g2'):
        return  # 3GPP2 multimedia file
    if url.endswith('.3gp'):
        return  # 3GPP multimedia file
    if url.endswith('.7z'):
        return  # 7-Zip compressed file
    if url.endswith('.ai'):
        return  # Adobe Illustrator file
    if url.endswith('.apk'):
        return  # Android package file
    if url.endswith('.arj'):
        return  # ARJ compressed file
    if url.endswith('.aif'):
        return  # AIF audio file
    if url.endswith('.avi'):
        return  # AVI file
    if url.endswith('.bat'):
        return  # Batch file
    if url.endswith('.bin'):
        return  # Binary disc image
    if url.endswith('.bmp'):
        return  # Bitmap image
    if url.endswith('.cda'):
        return  # CD audio track file
    if url.endswith('.com'):
        return  # MS-DOS command file
    if url.endswith('.csv'):
        return  # Comma separated value file
    if url.endswith('.dat'):
        return  # Binary Data file
    if url.endswith('.db') or url.endswith('.dbf'):
        return  # Database file
    if url.endswith('.deb'):
        return  # Debian software package file
    if url.endswith('.dmg'):
        return  # macOS X disk image
    if url.endswith('.doc') or url.endswith('.docx'):
        return  # Microsoft Word Open XML document file
    if url.endswith('.email') or url.endswith('.eml'):
        return  # E-mail message file from multiple e-mail clients
    if url.endswith('.emlx'):
        return  # Apple Mail e-mail file
    if url.endswith('.exe'):
        return  # MS-DOS executable file
    if url.endswith('.flv'):
        return  # Adobe Flash file
    if url.endswith('.fon'):
        return  # Generic font file
    if url.endswith('.fnt'):
        return  # Windows font file
    if url.endswith('.gadget'):
        return  # Windows gadget
    if url.endswith('.gif'):
        return  # GIF image
    if url.endswith('.h264'):
        return  # H.264 video file
    if url.endswith('.ico'):
        return  # Icon file
    if url.endswith('.iso'):
        return  # ISO disc image
    if url.endswith('.jar'):
        return  # Java archive file
    if url.endswith('.jpg') or url.endswith('.jpeg'):
        return  # JPEG image
    if url.endswith('.log'):
        return  # Log file
    if url.endswith('.m4v'):
        return  # Apple MP4 video file
    if url.endswith('.mdb'):
        return  # Microsoft Access database file
    if url.endswith('.mid') or url.endswith('.midi'):
        return  # MIDI audio file
    if url.endswith('.mov'):
        return  # Apple QuickTime movie file
    if url.endswith('.mp3') or url.endswith('.mpa'):
        return  # MP3 audio file
    if url.endswith('.mp4'):
        return  # MPEG4 video file
    if url.endswith('.mpa'):
        return  # MPEG-2 audio file
    if url.endswith('.mpg') or url.endswith('.mpeg'):
        return  # MPEG video file
    if url.endswith('.msg'):
        return  # Microsoft Outlook e-mail message file
    if url.endswith('.msi'):
        return  # Windows installer package
    if url.endswith('.odt'):
        return  # OpenOffice Writer document file
    if url.endswith('.ods'):
        return  # OpenOffice Calc spreadsheet file
    if url.endswith('.oft'):
        return  # Microsoft Outlook e-mail template file
    if url.endswith('.ogg'):
        return  # Ogg Vorbis audio file
    if url.endswith('.ost'):
        return  # Microsoft Outlook e-mail storage file
    if url.endswith('.otf'):
        return  # Open type font file
    if url.endswith('.pkg'):
        return  # Package file
    if url.endswith('.pdf'):
        return  # Adobe PDF file
    if url.endswith('.png'):
        return  # PNG image
    if url.endswith('.ppt') or url.endswith('.pptx'):
        return  # Microsoft PowerPoint Open XML presentation
    if url.endswith('.ps'):
        return  # PostScript file
    if url.endswith('.psd'):
        return  # PSD image
    if url.endswith('.pst'):
        return  # Microsoft Outlook e-mail storage file
    if url.endswith('.rar'):
        return  # RAR file
    if url.endswith('.rpm'):
        return  # Red Hat Package Manager
    if url.endswith('.rtf'):
        return  # Rich Text Format file
    if url.endswith('.sql'):
        return  # SQL database file
    if url.endswith('.svg'):
        return  # Scalable Vector Graphics file
    if url.endswith('.swf'):
        return  # Shockwave flash file
    if url.endswith('.xls') or url.endswith('.xlsx'):
        return  # Microsoft Excel Open XML spreadsheet file
    if url.endswith('.toast'):
        return  # Toast disc image
    if url.endswith('.tar'):
        return  # Linux tarball file archive
    if url.endswith('.tar.gz'):
        return  # Tarball compressed file
    if url.endswith('.tex'):
        return  # A LaTeX document file
    if url.endswith('.ttf'):
        return  # TrueType font file
    if url.endswith('.txt'):
        return  # Plain text file
    if url.endswith('.tif') or url.endswith('.tiff'):
        return  # TIFF image
    if url.endswith('.vcd'):
        return  # Virtual CD
    if url.endswith('.vcf'):
        return  # E-mail contact file
    if url.endswith('.vob'):
        return  # DVD Video Object
    if url.endswith('.xml'):
        return  # XML file
    if url.endswith('.wav') or url.endswith('.wma'):
        return  # WAV file
    if url.endswith('.wmv'):
        return  # Windows Media Video file
    if url.endswith('.wpd'):
        return  # WordPerfect document
    if url.endswith('.wpl'):
        return  # Windows Media Player playlist
    if url.endswith('.wsf'):
        return  # Windows script file
    if url.endswith('.z') or url.endswith('.zip'):
        return  # Z or Zip compressed file
    if url not in visited_urls:
        if url in frontier_array:
            found = True
            frontier_score[url] = frontier_score.get(url) + 1
        if not found:
            frontier_array.append(url)
            frontier_score[url] = 1

def extract_url_from_frontier():
    global frontier_array
    global frontier_score
    score = 0
    url = None
    for item in frontier_array:
        if score < frontier_score.get(item):
            url = item
            score = frontier_score.get(url)
    if url:
        frontier_array.remove(url)
        del frontier_score[url]
        visited_urls.append(url)
    return url

def download_page_from_url(url):
    html_title = None
    plain_text = None
    try:
        req = Request(url)
        html_page = urlopen(req)
        soup = BeautifulSoup(html_page, "html.parser")
        html_title = soup.title.get_text().strip()
        plain_text = soup.get_text().strip()
        plain_text = " ".join(plain_text.split())
        for hyperlink in soup.find_all('a'):
            hyperlink = urljoin(url, hyperlink.get('href'))
            add_url_to_frontier(hyperlink)
    except urllib.error.URLError as err:
        print(str(err))
    except urllib.error.HTTPError as err:
        print(str(err))
    except urllib.error.ContentTooShortError as err:
        print(str(err))
    finally:
        return html_title, plain_text

用于抓取InternetPython脚本:

def web_search_engine():
    global webpage_count
    print("Starting Web Search Engine thread...")
    try:
        connection = mysql.connector.connect(host=HOSTNAME, database=DATABASE,\
                                             user=USERNAME, password=PASSWORD,\
                                             autocommit=True)
        server_info = connection.get_server_info()
        print("MySQL connection is open on", server_info)
        while True:
            url = extract_url_from_frontier()
            if url:
                print("Crawling %s... [%d]" % (url, webpage_count + 1))
                html_title, plain_text = download_page_from_url(url)
                if html_title and plain_text:
                    if len(html_title) > 0:
                        connection = analyze_webpage(connection, url, html_title, plain_text)
                        if (webpage_count > 0) and ((webpage_count % 1000) == 0):
                            if connection.is_connected():
                                connection.close()
                                print("MySQL connection is now closed")
                            data_mining()
            else:
                break
    except mysql.connector.Error as err:
        print("MySQL connector error:", str(err))
    finally:
        if connection.is_connected():
            connection.close()
            print("MySQL connection is now closed")


def analyze_webpage(connection, url, html_title, plain_text):
    global webpage_count
    while not connection.is_connected():
        try:
            time.sleep(30)
            connection = mysql.connector.connect(host=HOSTNAME, database=DATABASE, \
                                                 user=USERNAME, password=PASSWORD,
                                                 autocommit=True)
            server_info = connection.get_server_info()
            print("MySQL connection is open on", server_info)
        except mysql.connector.Error as err:
            print("MySQL connector error:", str(err))
        finally:
            pass
    try:
        # html_title = html_title.encode(encoding='utf-8')
        # plain_text = plain_text.encode(encoding='utf-8')
        sql_statement = "INSERT INTO `webpage` (`url`, `title`, `content`) \
                         VALUES ('%s', '%s', '%s')" % \
                        (url, html_title.replace("'", "\""), plain_text.replace("'", "\""))
        cursor = connection.cursor()
        cursor.execute(sql_statement)
        if cursor.rowcount == 0:
            return connection
        sql_last_id = "SET @last_webpage_id = LAST_INSERT_ID()"
        cursor = connection.cursor()
        cursor.execute(sql_last_id)
        cursor.close()
        webpage_count = webpage_count + 1
        return analyze_keyword(connection, plain_text)
    except mysql.connector.Error as err:
        print("MySQL connector error:", str(err))
    finally:
        pass
    return connection

def analyze_keyword(connection, plain_text):
    global webpage_count
    global keyword_array
    new_keyword = {}
    old_keyword = {}
    tokenize_list = tokenize(plain_text)
    for keyword in tokenize_list:
        if keyword.isascii() and keyword.isalnum():
            keyword = keyword.lower()
            if keyword not in keyword_array:
                keyword_array.append(keyword)
                new_keyword[keyword] = 1
            else:
                if new_keyword.get(keyword) is not None:
                    new_keyword[keyword] = new_keyword[keyword] + 1
                else:
                    if old_keyword.get(keyword) is None:
                        old_keyword[keyword] = 1
                    else:
                        old_keyword[keyword] = old_keyword[keyword] + 1
    try:
        for keyword in new_keyword.keys():
            while not connection.is_connected():
                time.sleep(30)
                connection = mysql.connector.connect(host=HOSTNAME, \
                                                     database=DATABASE, user=USERNAME,
                                                     password=PASSWORD, autocommit=True)
                server_info = connection.get_server_info()
                print("MySQL connection is open on", server_info)
                sql_last_id = "SET @last_webpage_id = %d" % webpage_count
                cursor = connection.cursor()
                cursor.execute(sql_last_id)
            # keyword = keyword.encode(encoding='utf-8')
            sql_statement = "INSERT INTO `keyword` (`name`) VALUES ('%s')" % keyword
            cursor = connection.cursor()
            cursor.execute(sql_statement)
            if cursor.rowcount == 0:
                keyword_array.remove(keyword)
                continue
            sql_last_id = "SET @last_keyword_id = LAST_INSERT_ID()"
            cursor = connection.cursor()
            cursor.execute(sql_last_id)
            sql_statement = "INSERT INTO `occurrence` (`webpage_id`, `keyword_id`, \
                                                       `counter`, `pagerank`) " \
                            "VALUES (@last_webpage_id, @last_keyword_id, %d, 0.0)" \
                                                       % new_keyword[keyword]
            cursor = connection.cursor()
            cursor.execute(sql_statement)
            cursor.close()
        for keyword in old_keyword.keys():
            while not connection.is_connected():
                time.sleep(30)
                connection = mysql.connector.connect(host=HOSTNAME, database=DATABASE, 
                                                     user=USERNAME,
                                                     password=PASSWORD, autocommit=True)
                server_info = connection.get_server_info()
                print("MySQL connection is open on", server_info)
                sql_last_id = "SET @last_webpage_id = %d" % webpage_count
                cursor = connection.cursor()
                cursor.execute(sql_last_id)
            sql_last_id = "SET @last_keyword_id = (SELECT `keyword_id` FROM `keyword` \
                                                   WHERE `name` = '%s')" % keyword
            cursor = connection.cursor()
            cursor.execute(sql_last_id)
            sql_statement = "INSERT INTO `occurrence` \
                             (`webpage_id`, `keyword_id`, `counter`, `pagerank`) " \
                            "VALUES (@last_webpage_id, \
                                     @last_keyword_id, %d, 0.0)" % old_keyword[keyword]
            cursor = connection.cursor()
            cursor.execute(sql_statement)
            cursor.close()
    except mysql.connector.Error as err:
        print("MySQL connector error:", str(err))
    finally:
        pass
    return connection

def data_mining():
    records = None
    connection = None
    rowcount = 0
    try:
        print("Starting Data Mining thread... [cleanup]")
        connection = mysql.connector.connect(host=HOSTNAME, database=DATABASE, 
                                             user=USERNAME, password=PASSWORD,
                                             autocommit=True)
        server_info = connection.get_server_info()
        print("MySQL connection is open on", server_info)
        sql_select_query = "SELECT * FROM `keyword` ORDER BY `keyword_id`"
        cursor = connection.cursor()
        cursor.execute(sql_select_query)
        # get all records
        records = cursor.fetchall()
        print("Total number of rows in table:", cursor.rowcount)
        rowcount = cursor.rowcount
        cursor.close()
    except mysql.connector.Error as err:
        print("MySQL connector error:", str(err))
    finally:
        pass
    for row in records:
        done = False
        while not done:
            try:
                if not connection.is_connected():
                    time.sleep(30)
                    connection = mysql.connector.connect(host=HOSTNAME, database=DATABASE, 
                                                         user=USERNAME,
                                                         password=PASSWORD, autocommit=True)
                    server_info = connection.get_server_info()
                    print("MySQL connection is open on", server_info)
                data_update = connection.cursor()
                sql_update_query = "UPDATE `occurrence` \
                                    INNER JOIN `keyword` USING(`keyword_id`)" \
                                   "SET `pagerank` = data_mining(`webpage_id`, `name`) \
                                    WHERE `name` = '%s'" % row[1]
                print("applying data mining for '%s'... [%d/%d]" % (row[1], 
                       records.index(row) + 1, rowcount))
                data_update.execute(sql_update_query)
                data_update.close()
                done = True
            except mysql.connector.Error as err:
                print("MySQL connector error:", str(err))
            finally:
                pass
    try:
        if connection.is_connected():
            connection.close()
            print("MySQL connection is now closed")
    except mysql.connector.Error as err:
        print("MySQL connector error:", str(err))
    finally:
        pass

INDEX.HTML text-mining.ro 中的文件:

<!DOCTYPE html>
<html>
<head>
    <title>text-mining.ro</title>
    <meta name="ROBOTS" content="NOINDEX, NOFOLLOW" />
    <link rel="icon" type="image/png" href="romania-flag-square-icon-256.png">
    <!-- CSS styles for standard search box -->
    <style type="text/css">
        html, body, .container {
            height: 100%;
        }

        .container {
            display: -webkit-flexbox;
            display: -ms-flexbox;
            display: -webkit-flex;
            display: flex;
            -webkit-flex-align: center;
            -ms-flex-align: center;
            -webkit-align-items: center;
            align-items: center;
            justify-content: center;
        }

        #tfheader {
            background-color: #c3dfef;
        }

        #tfnewsearch {
            float: right;
            padding: 20px;
        }

        .tftextinput {
            margin: 0;
            padding: 5px 15px;
            font-family: Arial, Helvetica, sans-serif;
            font-size: 14px;
            border: 1px solid #0076a3;
            border-right: 0px;
            border-top-left-radius: 5px 5px;
            border-bottom-left-radius: 5px 5px;
        }

        .tfbutton {
            margin: 0;
            padding: 5px 15px;
            font-family: Arial, Helvetica, sans-serif;
            font-size: 14px;
            outline: none;
            cursor: pointer;
            text-align: center;
            text-decoration: none;
            color: #ffffff;
            border: solid 1px #0076a3;
            border-right: 0px;
            background: #0095cd;
            background: -webkit-gradient(linear, left top, left bottom, from(#00adee), to(#0078a5));
            background: -moz-linear-gradient(top, #00adee, #0078a5);
            border-top-right-radius: 5px 5px;
            border-bottom-right-radius: 5px 5px;
        }

        .tfbutton:hover {
            text-decoration: none;
            background: #007ead;
            background: -webkit-gradient(linear, left top, left bottom, from(#0095cc), to(#00678e));
            background: -moz-linear-gradient(top, #0095cc, #00678e);
        }

        /* Fixes submit button height problem in Firefox */
        .tfbutton::-moz-focus-inner {
            border: 0;
        }

        .tfclear {
            clear: both;
        }
    </style>
</head>
<body>
    <!-- HTML for SEARCH BAR -->
    <div class="container">
        <div id="tfheader">
            <form id="tfnewsearch" method="get" action="search.php">
                <input type="text" class="tftextinput" name="q" size="50" maxlength="120"><input type="submit" value="search" class="tfbutton">
                <br/>Website developed by <a href="https://www.emvs.site/curriculum-vitae/" target="_blank" >Stefan-Mihai MOGA</a> as part of his dissertation.
            </form>
            <div class="tfclear"></div>
        </div>
    </div>
</body>
</html>

搜索。来自https://www.text-mining.ro/ PHP文件:

<?php
/* This file is part of Web Search Engine application developed by Mihai MOGA.

Web Search Engine is free software: you can redistribute it and/or modify it
under the terms of the GNU General Public License as published by the Open
Source Initiative, either version 3 of the License, or any later version.

Web Search Engine is distributed in the hope that it will be useful, but
WITHOUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY
or FITNESS FOR A PARTICULAR PURPOSE. See the GNU General Public License for more details.

You should have received a copy of the GNU General Public License along with
Web Search Engine.  If not, see <http://www.opensource.org/licenses/gpl-3.0.html>*/

$servername = "localhost";
$username = "r46882text_engine";
$password = "TextMining2021!@#$";
$dbname = "r46882text_mining";

echo "<!DOCTYPE html>\n";
echo "<html>\n";
echo "\t<head>\n";
echo "\t\t<title>" . $_GET['q'] . "</title>\n";
echo "\t\t<meta charset=\"utf-8\">\n";
echo "\t\t<link rel=\"icon\" type=\"image/png\" href=\"romania-flag-square-icon-256.png\">\n";
echo "\t\t<meta name=\"viewport\" content=\"width=device-width, initial-scale=1\">\n";
echo "\t\t<link rel=\"stylesheet\" href=\"https://maxcdn.bootstrapcdn.com/bootstrap/3.4.0/css/bootstrap.min.css\">\n";
echo "\t\t<script src=\"https://ajax.googleapis.com/ajax/libs/jquery/3.4.0/jquery.min.js\"></script>\n";
echo "\t\t<script src=\"https://maxcdn.bootstrapcdn.com/bootstrap/3.4.0/js/bootstrap.min.js\"></script>\n";
echo "\t</head>\n";
echo "\t<body>\n";
$search = strtolower($_GET['q']);
$counter = 0;
$mysql_clause = "";
$mysql_select = "";
$token = strtok($search, "\t\n\r\"\' !?#$%&|(){}[]*/+-:;<>=.,");
while ($token !== false) {
    if ($counter == 0) {
        $mysql_clause = "SELECT DISTINCT `webpage_id` FROM `occurrence` INNER JOIN `keyword` USING (`keyword_id`) WHERE `name` = '$token'";
        $mysql_select = "(`name` = '$token')";
    }
    else {
        $mysql_clause = "SELECT DISTINCT `webpage_id` FROM `occurrence` INNER JOIN `keyword` USING (`keyword_id`) WHERE `name` = '$token' AND `webpage_id` IN (" . $mysql_clause . ")";
        $mysql_select = $mysql_select . " OR (`name` = '$token')";
    }
    $counter++;
    $token = strtok("\t\n\r\"\' !?#$%&|(){}[]*/+-:;<>=.,");
};
if ($counter > 0)
{
    // Create connection
    $conn = mysqli_connect($servername, $username, $password, $dbname);
    // Check connection
    if (!$conn) {
        die("Connection failed: " . mysqli_connect_error());
    }

    $statement = "SELECT DISTINCT `webpage_id`, `title`, `url`, `content`, AVG(`pagerank`) AS score FROM `occurrence` INNER JOIN `webpage` USING(`webpage_id`) INNER JOIN `keyword` USING(`keyword_id`) WHERE  `webpage_id` IN (" . $mysql_clause . ") AND (" . $mysql_select . ") GROUP BY `webpage_id` ORDER BY score DESC LIMIT 100;";
    $result = mysqli_query($conn, $statement);
    if (mysqli_num_rows($result) > 0) {
        // output data of each row
        while($row = mysqli_fetch_assoc($result)) {
            echo "<div class=\"container-fluid\">" . $row["webpage_id"] . ". <b>" . $row["title"] . "</b> Score: " . $row["score"] . "<br />";
            echo "<a href=\"" . $row["url"] . "\">" . $row["url"] . "</a><br />";
            // echo "<i>" . utf8_encode(substr($row["content"], 0, 1024)) . "</i></div><br />\n";
            echo "<i>" . substr($row["content"], 0, 1024) . "</i></div><br />\n";
        }
    } else {
        echo "0 results";
    }
    mysqli_close($conn);
}
echo "\t</body>\n";
echo "</html>\n";
?>

结论和兴趣点

我正在开发Web CrawlerKotlin版本,具有与Python脚本相同的实现/功能。

https://www.codeproject.com/Articles/5319612/Web-Search-Engine

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值