爬虫自动化(DrissionPage)

目录

?一.介绍:

下载DrissionPage,还是我们熟悉的pip:

环境准备:

?二.基本代码:

它对于的导包和类使用:

窗口的设置:

和获取的页面的滑动:

3.进一步认识DrissionPage:

浏览器可以多开:

监听网络数据:

四.反监测:

正常模式下:

无头模式:

五.总结:


一.介绍:

dDrissionPage官网?? 概述[这里是图片003]https://www.drissionpage.cn/

来自官网的介绍:

DrissionPage是一个基于 Python 的网页自动化工具。

既能控制浏览器,也能收发数据包,还能把两者合而为一。

下载DrissionPage,还是我们熟悉的pip:

pip install DrissionPage

环境准备:

  • 操作系统:Windows,Linux,Mac
  • python版本:3.6及以上
  • 浏览器:Chromium内核

二.基本代码:

from DrissionPage import ChromiumPage

page = ChromiumPage()
page.get('https://www.baidu.com/')

和自动化一样自己打开浏览器:

它对于的导包和类使用:

# ChromiumPage 只控制浏览器,不能收发数据包
from DrissionPage import ChromiumPage
 
# SessionPage 只用于收发数据包,不能控制浏览器
from DrissionPage import SessionPage
 
# 浏览启动参数管理器,用于控制浏览器启动参数
from DrissionPage import DriverOptions
 
# Session对象启动参数管理器,用于控制Session对象启动参数
from DrissionPage import SessionOptions
 
# 动作链类,用于模拟一连串鼠标键盘动作
from DrissionPage import ActionChains

窗口的设置:

page.set.window.maximized()    # 窗口最大化
 
page.set.window.minimized()    # 窗口最小化
 
page.set.window.fullscreen()    # 用于使窗口切换到全屏模式
 
page.set.window.normal()    # 用于使窗口切换到普通模式
 
page.set.window.size(500, 500)    # 用于设置窗口大小。
 
page.set.window.location(500, 500)    # 用于设置窗口位置

和获取的页面的滑动:

page.scroll.to_top()    # 用于滚动页面到顶部,水平位置不变
 
page.scroll.to_bottom()    # 用于滚动页面到底部,水平位置不变
 
page.scroll.to_half()    # 用于滚动页面到垂直中间位置,水平位置不变
 
page.scroll.to_rightmost()    # 用于滚动页面到最右边,垂直位置不变
 
page.scroll.to_leftmost()    # 用于滚动页面到最左边,垂直位置不变
 
page.scroll.to_location(300, 50)    # 用于滚动页面到滚动到指定位置
 
page.scroll.up(30)    # 用于使页面向上滚动若干像素,水平位置不变
 
page.scroll.down(30)    # 用于使页面向下滚动若干像素,水平位置不变
 
page.scroll.right(30)    # 用于使页面向右滚动若干像素,垂直位置不变
 
page.scroll.left(30)    # 用于使页面向左滚动若干像素,垂直位置不变

3.进一步认识DrissionPage:

浏览器可以多开:

每个浏览器的端口号不一样,和文件地址也不能一样。

from DrissionPage import Chromium, ChromiumOptions

Ch1 = ChromiumOptions().set_local_port('端口号').set_user_data_path('')#1
Ch2 = ChromiumOptions().set_local_port().set_user_data_path('')#2
browser1 = Chromium(Ch1)
browser2 = Chromium(Ch2)

监听网络数据:

  • 注意:要先启动监听,再执行动作,listen.start() 之前的数据包是获取不到的;

  • 等待并获取:

  • 等待并获取:

    from?DrissionPage?import?ChromiumPage

    page?=?ChromiumPage()
    page.get(‘网页地址’)?# 访问网址,这行产生的数据包不监听

    page.listen.start(‘gitee.com/explore’)?# 开始监听,指定获取包含该文本的数据包(部分url)
    for?_?in?range(5):
    page(‘@rel=next’).click()?# 点击下一页
    res?=?page.listen.wait()?# 等待并获取一个数据包
    print(res.url)?# 输出数据包url
    print(res.response.headers)?# 输出响应头
    print(res.response.statusText)?# 输出响应状态码
    print(res.response.body)?# 输出响应内容

四.反监测:

在 Selenium、Playwright 、Playwright 的使用中,我们知道了自动化工具容易被网站检测,也提供了一些绕过检测的方案。这里我们介绍一下 DrissionPage 的反检测方案:

正常模式下:

无头模式:

可以发现,没有做任何反检测的操作,都不会被检测到,就连使用无头模式也只有 userAgent 有问题,不过我们 co.set_user_agent() 设置一下就可以了,虽然这些只是最基本的检测机制,但也够用了

五.总结:

DrissionPage 语法简洁,使用方便,底层基于 CDP 协议,拥有较强的反检测机制,目前不需要做任何反检测的操作就可以绕过国内外绝大多数的网站自动化检测。

### DrissionPage 爬虫自动化使用教程及案例 #### 1. DrissionPage 概述 DrissionPage 是一个基于 Python 的网页自动化工具,能够控制浏览器并收发数据包。该工具可以将浏览器自动化与请求发送相结合,在提供浏览器操作便利的同时保持高效的网络交互能力[^2]。 #### 2. SessionPage 和 ChromiumPage 功能对比 - **SessionPage**: 主要用于模拟 HTTP 请求,适合不需要渲染页面的任务。其性能较高,因为不涉及浏览器启动过程。 - **ChromiumPage**: 提供完整的浏览器环境支持 JavaScript 渲染等内容复杂的网站抓取工作。适用于需要处理动态加载内容的情况。 #### 3. 使用 SessionPage 爬取网易云音乐热歌榜实例 下面是一个简单的例子来展示如何利用 `SessionPage` 来获取网易云音乐热门歌曲榜单的信息: ```python from drissionpage import SessionPage, config config.set_driver_path(r'path_to_chromedriver') # 设置 chromedriver 路径 url = 'https://music.163.com/discover/toplist?id=3779629' session_page = SessionPage() response = session_page.get(url) html_content = response.text print(html_content[:500]) # 打印前500字符查看部分HTML源码 ``` 这段代码通过设置 ChromeDriver 的路径初始化了一个新的会话对象,并向指定 URL 发送 GET 请求以获得 HTML 响应体的内容[^1]。 #### 4. 进一步解析和提取所需信息 为了更深入地分析返回的数据,通常还需要借助 BeautifulSoup 或者 PyQuery 库来进行 DOM 解析,从而定位到具体的标签节点并抽取有用字段,比如歌曲名称、歌手名等。 ```python from bs4 import BeautifulSoup as soup parsed_html = soup(html_content, "lxml") song_list = parsed_html.find_all('div', class_='ttc') for song in song_list: title = song.a['title'] print(title) ``` 此段脚本展示了怎样运用 BeautifulSoup 对之前取得的 HTML 文档做进一步剖析,最终实现了对每首上榜曲目标题的有效读取。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值