Python爬虫抓取代理IP

本文介绍了一个简单的Python程序,用于从西刺代理网站抓取前10页的代理IP地址,并提出了维护代理池的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

为了防止被反爬虫策略禁止访问,有的时候需要用到代理IP,代理IP可以到一些提供 代理IP的网站上爬取,也可以自己扫描。(想想这些提供代理IP的网站是怎么得到这些代理IP的,是通过扫描得来的)。

下面的代码用到requests和BeautifulSoup,到一个网站上采集IP,为了初学者学习方便,只取前面10页的内容,

请大家修改代码。

# coding:utf-8

	import requests
	from bs4 import BeautifulSoup


	class SpiderProxy(object):
	    """Python版本为2.7以上"""
	    headers = {
	        "Host": "www.xicidaili.com",
	        "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11; rv:47.0) Gecko/20100101 Firefox/47.0",
	        "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8",
	        "Accept-Language": "en-US,en;q=0.5",
	        "Accept-Encoding": "gzip, deflate",
	        "Referer": "http://www.xicidaili.com/wt/1",
	    }

	    def __init__(self, session_url):
	        self.req = requests.session()
	        self.req.get(session_url)

	    def get_pagesource(self, url):
	        html = self.req.get(url, headers=self.headers)
	        return html.content

	    def get_all_proxy(self, url, n):
	        data = []
	        for i in range(1, n):
	            html = self.get_pagesource(url + str(i))
	            soup = BeautifulSoup(html, "lxml")

	            table = soup.find('table', id="ip_list")
	            for row in table.findAll("tr"):
	                cells = row.findAll("td")
	                tmp = []
	                for item in cells:

	                    tmp.append(item.find(text=True))
	                data.append(tmp[1:3])
	        return data

	session_url = 'http://www.xicidaili.com/wt/1'
	url = 'http://www.xicidaili.com/wt/'
	p = SpiderProxy(session_url)
	proxy_ip = p.get_all_proxy(url, 10)
	for item in proxy_ip:
	    if item:
	        print item

建议: 为了保持代理IP可用,需要创建一个代理池,定期检测可用的代理,无效的代理及时删除。可以用redis实现。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值