spider-web 是爬虫的网页版,使用xml配置

本文介绍了一款名为spider-web的爬虫网页版,它使用XML配置,支持复杂页面抓取,并能将抓取内容保存、下载。配置文件详细展示了如何根据不同页面设置,支持流行页面抓取。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

spider-web 是爬虫的网页版,使用xml配置,支持大部分页面的爬取,支持爬取内容的保存、下载等。

其中配置文件格式为:

 

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
<? xml version = "1.0" encoding = "UTF-8" ?>
< content >
     < url type = "simple" > <!-- simple/complex -->
         < url_head >http://www.oschina.net/tweets</ url_head >
         < url_start ></ url_start >
         < url_end ></ url_end >
         < url_suffix ></ url_suffix >
     </ url >
     < analysis type = "list" > <!-- single/list -->
         < elem name = "title" >
             < attr type = "key" num = "1" > <!-- tag/class/key -->
                 < name >link</ name > <!-- $http://my.oschina.net/(.)* -->
                 < pro >http://my.oschina.net/(.)*/[0-9]*</ pro >
             </ attr >
             < attr type = "class" num = "2" > <!-- tag/class/key -->
                 < name >tweet</ name >
                 < pro >a</ pro >
             </ attr >
             < attr type = "class" num = "3" >
                 < name >txt</ name >
                 < pro >a</ pro >
             </ attr >
             < attr type = "tag" num = "4" >
                 < name >a</ name >
                 < pro >a</ pro >
             </ attr >
         </ elem >
         < elem name = "content" >
             < attr type = "key" num = "1" > <!-- tag/class/key -->
                 < name >link</ name > <!-- $http://my.oschina.net/(.)* -->
                 < pro >http://my.oschina.net/(.)*/[0-9]*</ pro >
             </ attr >
             < attr type = "class" num = "2" > <!-- tag/class/key -->
                 < name >tweet</ name >
                 < pro >a</ pro >
             </ attr >
             < attr type = "class" num = "3" >
                 < name >txt</ name >
                 < pro >a</ pro >
             </ attr >
         </ elem >
     </ analysis >
     < target type = "download" > <!-- download/text -->
     </ target >
</ content >

根据不同的页面进行设置,可以支持比较流行的页面爬取。

爬虫网页版
issues: 没有issue
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值