Nutch的Hadoop方式爬取效率优化

本文分享了通过调整Nutch参数、Hadoop配置及优化抓取策略,显著提高爬虫效率的经验。具体包括增大fetch线程数、优化DNS设置、合理分配资源等措施。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

下面这些是潜在的影响爬取效率的内容(官方资料翻译):

1)DNS设置
2)你的爬虫数量,太多或太少
3)带宽限制
4)每一主机的线程数
5)要抓取的urls的分配不均匀
6) robots.txt中的高爬取延时(通常和urls的分配不均匀同时出现)
7)有很多比较慢的网页(通常和分配不均匀同时出现)
8)要下载太多的内容(PDF,大的html页面,通常和分配不均匀同时出现)
9)其它

那现在怎样改善它们?

1)在每一个本地的爬虫机器上设置DNS,如果是多个爬取机器和一个单独的DNS中心这种情况,那么它就会像有DOS攻击在DNS服务器上那样,使整个系统变慢。我们经常设置两层,首先命中本地DNS缓存,然后就是大的DNS缓存,就像OpenDNS或Verizon。
2)这将是map任务数乘以fetcher.threads.fetch属性值的数量。所以10个map任务*20个线程=一次200个爬取列表。太多的话会超过你系统的负担,太少的话就会使一些机器闲置。你需要认真考虑在你的环境下如何设置这些属性。
3)带宽限制,用ntop,ganglia和其它监控软件来测定你使用了多少的带宽。计算输入和输出的带宽。可以做一个简单的测试,用抓取网络中一台不用作爬虫的服务器中,如果它与其中一台爬虫机器连接时或当那台机器抓取时从中下载信息时非常慢,这时你就可以加大带宽。如果你像我后来说的那样设置http的超时时间并且增加了你的带宽,你会开始看到很多http超时的错误。
4)urls分配的不均匀很有可能是限制性能的一个最大的因素。如果一个线程正在处理一个网站并且那个网站还有很多url等待抓取,那么其它线程就会闲置直到那个线程完成抓取。一些解决方法是,使用fetcher.server.delay来缩短网页抓取之间的时间间隔,和使用fetcher.threads.per.host来增加同一网站抓取的线程数(这仍然在同一个map任务中,因此也是在同一个JVM中的子任务中处理)。如果把这些属性都设置为大于0,你也可以设置fetcher.server.min.delay属性大于0来设置处理的最小和最大的界限。
5)在一个网站上抓取大量的网页或在少量网站上抓取大量的网页将显著地降低抓取的速度。对于全网爬取,你希望用分布式环境来使所有抓取线程活动。设置generate.max.per.host大于0将限制在同一网站/域名抓取网页的数量
6)爬取延迟。大多数网站不使用这些设置只有少数使用(一些恶意的网站)。我见过爬取延迟每秒最长延迟2天的.fetcher.max.crawl.delay属性将忽略爬取延迟大于x的页面。我经常把它设置成10秒,默认是30秒。尽管设置为10秒,如果你在某个网站上有大量的页面要爬取,但你只能每10秒爬取一个页面,这样也是很慢的。另一方面,把它的值设置过小将忽略该页面并且不抓取这些网页。
7)有时,网页刚好很慢。设置http.timeout一个低点的值就有助于这种情况。它的默认值为10秒。如果你不在意并想所有网页都尽可能的快,设置得小点。一些网站。例如digg,会在网站中限制你的带宽并且只允许在某个时间段内存在x个到你机器的连接。所以即使你只在一个网站中爬取50个网页(我仍然认为太多了)。这样将在每一页面中等待10秒。ftp.timeout也可以用来设置抓取ftp的内容时的时间间隔。
8)大量的内容意味着要降低抓取的速度。特别是下载PDF或其它非html的文件时。为了避免下载非html的内容,你可以使用url过滤器。我更喜欢prefix和suffix过滤器。http.content.limit和ftp.content.limit属性可以限制一个文档中下载数据的多少。
9)其它可能导致抓取变慢的因素:
一台机器最大可打开的socket或文件的多少。你可能会开始看到IO错误或不能打开socket的错误。低效的路由。坏的或家里的路由不能控制同一时间大量连接的建立。一个错误的路由设置也可能导致问题但这些问题通常很难发现。如果你认为是这个问题,可以用网络跟踪和映射工具来查找。反向的路由则可能是你网络供应商的问题。坏的网卡。我曾经见过一些网卡突然达到了某个带宽值。这个问题在使用新的网卡时更加普遍。这通常不是我首先想到的但是通常是可能会出现的。可以使用tcpdump和网络监控

本次优化方向:

A,1)3)为硬件,设置好了以后改变不大。暂不考虑。
B,5)generate.max.per.host暂设置为0。暂不考虑。
C,8)本次爬虫设置只爬取网页内容,不爬媒体文件。
D,2)4)6)7)9)为优化目标


Hadoop配置:

三台:主机内存8G,2台slave内存20G,主从内存配置不合理有一定原因,这里就不再赘述。以后也是一个优化方向

网络带宽:100M

优化前的准备工作:

没有优化之前,种子数量在10条左右的时候,单机版和Hadoop版的爬取效率大约都在2条/秒(包括建立索引)。
优化了Nutch索引,stored和indexed,索引不需要存储的尽量不存储,不需要索引的尽量不索引。并且去掉不必要的索引项目。当种子数增加到40条左右的时候,Hadoop版的爬取效率大约在3.5条/秒。由此确定了种子数量对爬取有影响的优化方向。

参照hadoop的优化方针,做了如下优化:

1,优化系统参数 readahead buffer
blockdev --report
blockdev --setra 1024 /dev/sda
2,优化hadoop参数
hdfs-default
 dfs.namenode.handler.count:20
 dfs.datanode.handler.count:5
 dfs.replication:3
mapred-default.xml
 mapreduce.tasktracker.http.threads:50
 io.sort.factor:20
 mapred.child.java.opts:-Xmx400m
 mapreduce.task.io.sort.mb:200
 mapreduce.map.sort.spill.percent:0.8
 mapreduce.map.output.compress:true
mapreduce.map.output.compress.codec:org.apache.hadoop.io.compress.DefaultCodec     com.hadoop.compression.lzo.LzoCodec为最优
mapreduce.reduce.shuffle.parallelcopies:10

优化开始:

2014/7/9 上午

优化内容

增大种子数:选取的3000左右的有效的国外网站。

yarn-site
<property>
<name>yarn.scheduler.minimum-allocation-mb</name>
<value>2048</value>
</property>
<property>
<name>yarn.scheduler.maximum-allocation-mb</name>
<value>3072</value>
</property>
mapred-site
<property>
<name>mapreduce.map.memory.mb</name>
<value>1536</value>
</property>
<property>
<name>mapreduce.reduce.memory.mb</name>
<value>2560</value>
</property>
<property>
<name>mapreduce.map.java.opts</name>
<value>-Xms512m -Xmx1024m</value>
</property>
<property>
<name>mapreduce.reduce.java.opts</name>
<value>-Xms1024m -Xmx2048m</value>
</property>
slave
yarn-site
<property>
<name>yarn.scheduler.minimum-allocation-mb</name>
<value>3072</value>
</property>
<property>
<name>yarn.scheduler.maximum-allocation-mb</name>
<value>6144</value>
</property>
mapred-site
<property>
<name>mapreduce.map.memory.mb</name>
<value>4096</value>
</property>
<property>
<name>mapreduce.reduce.memory.mb</name>
<value>8192</value>
</property>
<property>
<name>mapreduce.map.java.opts</name>
<value>-Xms2048m -Xmx3072m</value>
</property>
<property>
<name>mapreduce.reduce.java.opts</name>
<value>-Xms5120m -Xmx6144m</value>
</property>

结果:

共爬取并建立了91986条solr索引,共耗时22235秒。最终效率:4.14条/秒。

4.136991



2923292311:06:0511:20:510:14
365383361511:20:5113:13:381:52
682553171713:13:3815:16:422:03
919862373115:16:4217:16:401:59

2014/7/9 下午

优化内容:

nutch-site

<name>fetcher.threads.per.host</name> 5
<name>fetcher.threads.fetch</name>20

结果:


    数
效率5.38条/秒全体NutchIndex








总条数每回条数开始终了耗时速度开始终了耗时速度开始终了耗时速度
12923292318:22:0418:48:5516111.8118:22:0418:35:137893.7018:37:0518:48:557104.12
2365383361518:49:4120:59:0477634.3318:49:4120:20:3154506.1720:22:1820:59:04220615.24
3682553171721:00:1122:57:3570444.5021:00:1122:26:2151706.1322:28:0822:57:35176717.95
4919862373122:59:190:58:5271733.3122:59:190:28:4953704.420:31:030:58:52166914.22
5115646236601:00:492:49:1465053.641:00:492:19:2147125.022:21:192:49:14167514.13

结论:

速度从4.14-〉5.38,提升了29.95%。从这一点来看Nutch的fetch线程数目对爬取效率有一定影响。


2014/7/10

优化内容:

根据7/9日的方向,增加fetch线程数。

nutch-site
<property>
  <name>fetcher.threads.fetch</name>
  <value>100</value>
</property>
<property>
 <name>plugin.includes</name>
    <value>protocol-http|urlfilter-regex|parse-html|index-(basic|customized)|indexer-solr|scoring-opic|urlnormalizer-(pass|regex|basic)</value>
</property>
<property>
  <name>indexer.skip.notmodified</name>
  <value>true</value>
  <description>Whether the indexer will skip records with a db_notmodified status.
  </description>
</property>

结果:


    数
效率6.22条/秒全体NutchIndex








总条数每回条数开始终了耗时速度开始终了耗时速度开始终了耗时速度
13014301415:01:0115:26:0715062.0015:01:0115:13:307494.0215:15:1315:26:076544.61
2390693605515:26:5417:34:5576814.6915:26:5417:01:3556816.3517:03:2517:34:55189019.08
3731563408717:35:5719:33:3670594.8317:35:5718:59:0649896.8319:01:0819:33:36194817.50
41039943083819:34:5521:46:4079053.9019:34:5521:03:0752925.8321:05:3121:46:40246912.49

结论:

速度从5.38-〉6.22,提升了15.61%。fetch线程数目增加,优化效果在减小。


2014/7/11上午

改变优化方向:

考虑到网速的问题,放弃了用之前有3000左右的有效网站地址的国外新闻网站。改用下列网址http://bj.elanw.com/,由于初始只有一个地址。防止爬取深度过深,先爬去两层然后作为基础,再作爬取。再次爬取的层数为3层。

结果:


    数
效率11.61条/秒全体NutchIndex








总条数每回条数开始终了耗时速度开始终了耗时速度开始终了耗时速度
12830283011:13:0511:35:5213672.0711:13:0511:26:408153.4711:28:2011:35:524526.26
2438854105511:36:5113:07:0154107.5911:36:5112:29:47317612.9312:31:5513:07:01210619.49
3830743918913:08:1114:27:4747768.2113:08:1114:00:53316212.3914:02:5314:27:47149426.23

结论:

速度从6.22-〉11.61,提升了86.66%。可见访问网站的速度对爬虫有很大影响。


2014/7/11下午

优化方向:

统计了一下上午爬虫每个阶段的详细数据,结果如下:

InjectGenerateFetchParseCrawlDBLink inversionDedupIndexCleanup index
11:13:0511:14:5411:16:2211:21:5111:23:2511:24:3411:26:4011:28:2011:35:52
0:01:490:01:280:05:290:01:340:01:090:02:060:01:400:07:320:00:59
11:36:5111:36:5111:38:3812:11:3412:21:5812:23:3912:29:4712:31:5513:07:01

0:01:470:32:560:10:240:01:410:06:080:02:080:35:060:01:10
13:08:1113:08:1113:09:5613:41:3113:50:5613:52:2714:00:5314:02:5314:27:47

0:01:450:31:350:09:250:01:310:08:260:02:000:24:54

从结果上看:fetch和index所耗时间占每次爬取时间的80%左右,所以重点考虑fetch的参数优化。

另外,察看资料发现之前Nutch的配置有个优化项目设置不对,Nutch1.8中不是fetcher.threads.per.host而是fetcher.threads.per.queue。

优化内容:

<property>
  <name>fetcher.threads.per.queue</name>
  <value>5</value>
</property>
<property>
  <name>fetcher.queue.depth.multiplier</name>
  <value>100</value>
</property>
<property>
  <name>fetcher.server.delay</name>
  <value>2.0</value>
</property>
<property>
  <name>fetcher.server.min.delay</name>
  <value>1.0</value>
</property>

结果:


    数
效率13.87条/秒全体NutchIndex








总条数每回条数开始终了耗时速度开始终了耗时速度开始终了耗时速度
12238223814:38:0514:56:3711122.0114:38:0514:48:076023.7214:49:4314:56:374145.41
2437044146614:57:2516:21:0050158.2714:57:2515:43:12274715.1015:44:5216:21:00216819.13
3822693856516:21:2517:34:2143768.8116:21:2517:04:29258414.9217:06:2417:34:21167723.00

结论:

速度从11.61-〉13.87,提升了19.47%。可见fetch的参数优化对整体爬虫效率有不小的影响。


2014/7/11晚上

优化内容:fetch参数

<property>
  <name>fetcher.threads.per.queue</name>
  <value>10</value>
</property>
<property>
  <name>fetcher.queue.depth.multiplier</name>
  <value>200</value>
</property>
<property>
  <name>fetcher.threads.fetch</name>
  <value>200</value>
</property>

结果:


    数
效率14.52条/秒全体NutchIndex








总条数每回条数开始终了耗时速度开始终了耗时速度开始终了耗时速度
12224222418:07:0418:23:5910152.1918:07:0418:16:335693.9118:18:0718:23:593526.32
2420793985518:24:4619:35:4542599.3618:24:4619:07:15254915.6419:09:0219:35:45160324.86
3834664138719:36:4720:46:3541889.8819:36:4720:20:37263015.7420:22:2420:46:35145128.52

结论:

速度从13.87-〉14.52,提升了4.69%。可见fetch的参数优化对整体爬虫效率有影响,但效果已经减小


总结:

通过这几天的优化,使得爬虫效率从4.14条/秒提升到了14.52条/秒,速度提升250.72%

1,Nutch爬虫整体过程中,fetch和index创建占据着整体爬取时间的80%左右,fetch:55%,index:35%

   fetch方面主要考虑参数优化,nutch1.8种有10多个参数,上述已经做了部分优化。
    index创建的优化主要考虑做solr集群,现在还是单机版。是今后的优化方向

2,Hadoop的相关优化,要事先做完,特别是虚拟内存和物理内存的优化,否则在优化1时会出现内存溢出,IO异常等错误

3,爬取网站的访问速度对爬虫效率有很大影响,这个很容易理解

4,从每次爬虫的速度来看,种子数量对爬虫速度有很大的影响爬虫官方目标是每个月几十亿,暂算30亿的话,每天1亿网页爬取量来算,每秒要爬取1100多网页。如果其他因素都很理想得状态下,种子数量的多少对爬虫速度有非常大的影响实际实践效率数据:每天200万网页,每秒20多条网页。




转载于:https://my.oschina.net/junfrank/blog/290404

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值