使用多进程抓取西祠代理ip

本文介绍了一个使用Python的多进程技术来抓取西祠网站上的代理IP,并通过请求百度验证其可用性的过程。代码中,首先定义了获取所有代理的函数get_all_proxy,然后定义了检查单个代理是否可用的check_one_proxy函数,最后在主程序中启动多进程进行抓取和验证。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

import requests
from lxml import etree
import time
import multiprocessing

def get_all_proxy(queue):
url = ‘http://www.xicidaili.com/nn/1

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',
}
response = requests.get(url, headers=headers)

# with open('song.html', 'wb') as f:
#     f.write(response.content)

html_ele = etree.HTML(response.text)

ip_eles = html_ele.xpath('//table[@id="ip_list"]/tr/td[2]/text()')
port_ele = html_ele.xpath('//table[@id="ip_list"]/tr/td[3]/text()')

# print(len(ip_eles))
# print(len(port_ele))
proxy_list = []
for i in range(0,len(ip_eles)):
    proxy_str = 'http://' + ip_eles[i] + ':' + port_ele[i]
    #proxy_list.append(proxy_str)
    #print(proxy_str)
    queue.put(proxy_str)

def check_one_proxy(proxy):
#print(‘人头已经打到这里’)
try:
#proxy = proxy_and_queue
url = ‘http://www.baidu.com/s?wd=ip
proxy_dict = {
‘http’: proxy
}
try:
response = requests.get(url, proxies=proxy_dict, timeout=5)
if response.status_code == 200:
print(‘这个人头送的好’ + proxy)
#queue.put(proxy)
return proxy
else:
print(‘这个人头没送好’)
#queue.put(proxy)
return proxy
except:
#print(‘这个人头耶耶耶没送好—————>’)
return None
except Exception as e:
print(e)

if name == ‘main‘:
start_time = time.time()
# 创建队列
q = multiprocessing.Queue()
# pool 进程池中, 要用的是下面的这个queue
#result_q = multiprocessing.Manager().Queue()
# 获取所有代理
p = multiprocessing.Process(target=get_all_proxy, args=(q,))
p.start()
# proxy_list = get_all_proxy()
# 检测代理的可用性

pool = multiprocessing.Pool(50)
result_list = []
while True:
    try:
        proxy_str = q.get(timeout=5)
        #print('人头送到这里了', proxy_str)
    except:
        break
    #print('apply_async 之前')
    #proxy_and_queue = [proxy_str, result_q]
    proxy_res = pool.apply_async(check_one_proxy, (proxy_str,))
    result_list.append(proxy_res)
#valid_proxy_list = check_all_proxy(proxy_list)

valid_proxy_list = []
for proxy_res in result_list:
    result = proxy_res.get()
    if result is None:
        pass
    else:
        valid_proxy_list.append(result)
    #print(result)

print('All proxy we can get:')
print(valid_proxy_list)
pool.close()
pool.join()
p.join()


end_time = time.time()
print('--'*30)
# print(valid_proxy_list)
print('耗时:' + str(end_time-start_time))
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值