PythonScript_002_设置代理进行爬取

本文介绍如何使用Python的urllib库构建代理进行网络请求,重点讲解免费代理和收费代理的配置方法,以及如何根据代理开关选择合适的处理器。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

#!/usr/bin/env python
# -*- coding:utf-8 -*-

import urllib.request
import os # os是电脑环境、sys是Python环境
'''
构建代理-进行请求
特点:免费的不稳定
Python 3.7.0
'''
# 代理开关,表示是否用代理
proxyswitch = True

# 获取系统环境变量的授权代理的账户和密码,作用:可以防止信息泄露
# proxyuser = os.environ.get("proxyuser") # 这里没有设置
# proxyuser = os.environ.get("proxypasswd") # 这里没有设置

# 构建一个Handler处理器对象,参数是一个字典类型,包括代理类型和代理服务器IP + PROT
httporoxy_handler = urllib.request.ProxyHandler({"http" : "101.251.216.103:80"}) # 免费的
# httporoxy_handler = urllib.request.ProxyHandler({"http": "mr_mao_hacker:sffqry9r@114.215.49:16816"}) # 收费的

# 构建一个没有代理的处理器对象
nullproxy_handler = urllib.request.ProxyHandler({})

# 构建自定义的opener
# 调用build_opener()方法构建一个自定义的opener对象,参数是构建的处理器对象
if proxyswitch:
    opener = urllib.request.build_opener(httporoxy_handler)
else:
    opener = urllib.request.build_opener(nullproxy_handler)

# 构建了一个全局的opener,之后所有的请求都可以用urlopen()方式去发送,也附带Handler的功能
# 注:全局代理适合设置一个代理之后不再更换代理,而需要一直更换代理的就不能设置全局代理
urllib.request.install_opener(opener)

# 构建请求
request = urllib.request.Request("http://www.baidu.com/")

# 获取响应
reponse = urllib.request.urlopen(request)

# 打印内容
print(reponse.read().decode("utf-8"))



Python爬取滚动新闻通常涉及到动态网页抓取,因为许多网站会通过JavaScript或其他前端技术来加载更多内容。你可以使用Selenium库配合ChromeDriver等浏览器驱动程序,模拟用户操作来实现滚动加载内容。以下是基本步骤: 1. 安装必要的库: ```bash pip install selenium requests beautifulsoup4 ``` 2. 导入所需模块并初始化浏览器: ```python from selenium import webdriver from selenium.webdriver.common.keys import Keys import time driver = webdriver.Chrome() # 如果是Firefox,则替换为webdriver.Firefox() driver.get('目标新闻网站URL') ``` 3. 模拟滚动: ```python last_height = driver.execute_script("return document.body.scrollHeight") # 获取初始页面高度 while True: driver.execute_script(f"window.scrollTo(0, {last_height});") # 滚动到底部 time.sleep(2) # 为了防止过于频繁请求导致封IP,设置适当延迟 new_height = driver.execute_script("return document.body.scrollHeight") # 更新新的页面高度 if new_height == last_height: # 如果没有更多内容加载,跳出循环 break last_height = new_height ``` 4. 提取数据: 使用BeautifulSoup解析HTML,提取你需要的新闻标题、链接、时间等信息。 5. 结束会话并保存结果: ```python news_data = ... # 这里处理获取到的数据 driver.quit() ``` 注意,遵守网站的Robots协议,并尊重网站的反爬虫策略。同时,频繁的爬取可能会对服务器造成压力,因此请合理设置请求间隔和代理
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值