python抓取某代理网站代理IP及端口

本文介绍了一个Python脚本,用于从指定网站抓取代理IP和端口信息,并将其整理成可用的列表。脚本通过HTTP连接请求获取网页内容,利用BeautifulSoup解析HTML并提取所需的数据。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

#coding:utf8
import httplib
from bs4 import BeautifulSoup
import re
import sys
reload(sys)
sys.setdefaultencoding('utf-8')
ip_L =[]
port_L = []

def urlList(): #组成url列表
	L = ['/proxy/index.shtml']
	for i in range(2,11):
		i = '/proxy/http_'+str(i)+'.shtml'
		L.append(i) 
	return L

def get_ip_list(iplist): #组成ip列表
	for ip in iplist:
		ip_L.append(ip.string)
	return ip_L

def get_port_list(portlist): #组成端口列表
	for port in portlist:
		port_L.append(port.string)
	return port_L

def main(url):	#主函数
	connect = httplib.HTTPConnection(url,80,timeout=30)
	for i in urlList():
		connect.request('GET',i)
		response = connect.getresponse()
		read = response.read()
		soup = BeautifulSoup(read)
		ip_List = soup.find_all('div',class_='ip')  #设置key_word参数为div标签内的class属性=ip
		port_List = soup.find_all('div',class_='port')		
		get_ip_list(ip_List) #调用函数组成ip list
		get_port_list(port_List) #调用函数组成port list
		for k,v in dict(zip(ip_L,port_L)).items(): #将两个list组成一个字典
			print k+':'+v
		break

main('www.cz88.net')

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值