python爬虫

本文介绍了一个简单的Python网络爬虫示例,使用urllib2和BeautifulSoup库从百度首页抓取内容并保存为HTML文件。此外,还探讨了爬虫面临的一些挑战,如反抓措施、信息的有效存储和抽取等问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

关键词: python, 网络爬虫,网站

 

测试环境:ubuntu 12.04

网络爬虫是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本

1.     爬虫工作原理

爬虫流程图

2.     http抓取工具 scrapy

 

百度首页爬虫,并把抓取内容保存到html文件。

程序流程:

  •   构建http请求包
  •   发送http请求
  •  分析网页编码
  •   保存网页内容到文件
  •   提取网页中特定的某些信息

 

#!/usr/bin/env python
import urllib2
import sys
import chardet

from bs4 import BeautifulSoup


url="http://www.baidu.com"

req_header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Maxthon/4.3.1.2000 Chrome/30.0.1599.101 Safari/537.36',
'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
'Accept-Language':'zh-cn',
'Accept-Encoding':'gzip, deflate'
}

req = urllib2.Request(url)
## Request(url,None,req_header)
resp = urllib2.urlopen(req)
content = resp.read()
info = resp.info()
resp.close()

reload(sys)

infoencode = (chardet.detect(content))['encoding']
print infoencode
charset2 = info.getparam('charset')
print charset2

with open("html1.html","w") as file1:
    file1.write(content)
	
soup = BeautifulSoup(content)
polist=soup.findAll('a')
print len(polist)  


注:有些网站有反抓功能,例如南京小百合bbs(http://bbs.nju.edu.cn/)

 

3.     其他问题

  有效存储(数据库应该怎样安排)

  有效判重(网页判重,不想把人民日报和抄袭它的大民日报都爬一遍)

  有效信息抽取(比如怎么样抽取出网页上所有路名,朝阳区奋进路中华道),搜索引擎通常不需要存储所有的信息,比如图片.

  及时更新(预测这个网页多久会更新一次)

  大规模网页抓取,分布式


参考资料

http://www.oschina.net/translate/build-website-crawler-based-upon-scrapy

http://www.pythontab.com/html/2013/pythonhexinbiancheng_0814/541.html  

python爬虫框架scrapy实例详解

http://www.oschina.net/p/cola   Cola分布式的爬虫框架

http://www.oschina.net/p/scrapy   Scrapy基于Twisted的异步处理框架



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值