【无标题】

本文介绍了如何使用Scrapy框架结合Selenium实现网页抓取,包括创建项目、创建爬虫spider、编写Selenium中间件以及在配置文件中设置。作者展示了如何在中间件中使用Selenium获取页面源代码并返回给ScrapySpider。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

介绍

在管道中编写selenium

创建项目

创建项目的文件夹
创建项目

cd  D:\workspace\pythonVip\spider\day20
scrapy startproject blogs

在这里插入图片描述

创建爬虫spider

cd  D:\workspace\pythonVip\spider\day20\blogs>
scrapy genspider cnblog www.cnblogs.com

创建成功,在spider下生成spider的文件
在这里插入图片描述

代码

中间件

中间件写selenium后返回response,在配置文件配置中间件后,在spider中获取中间件的response进行打印

middlewares.py

#Selenium 中间件
from scrapy import signals
import random
# useful for handling different item types with a single interface
from itemadapter import is_item, ItemAdapter


from selenium import webdriver
from selenium.webdriver.chrome.service import Service
from scrapy.http import HtmlResponse

class SeleniumMiddleware:
    def process_request(self, request, spider):
        options = webdriver.ChromeOptions()
        #google的路径
        options.binary_location = r"D:\Program Files\Google\Chrome\Application\chrome.exe"
        # chromedriver的路径
        service = Service(r"D:\workspace\pythonVip\spider\day20\blogs\blogs\chromedriver.exe")
        chrome = webdriver.Chrome(service=service, chrome_options=options)  # 创建浏览器驱动

        chrome.get(request.url)
        chrome.maximize_window()  # 窗口最大化

        page_source = chrome.page_source  # 获取源代码

        #返回Response后,其他中间件就不执行了
        return HtmlResponse(url=request.url, body=page_source, request=request, encoding="utf-8")

配置文件配置中间件
settings.py

DOWNLOADER_MIDDLEWARES = {
   'blogs.middlewares.SeleniumMiddleware': 99 
}

爬虫文件,获取中间件的response,并且打印

import scrapy

class CnblogSpider(scrapy.Spider):
    name = 'cnblog'
    allowed_domains = ['www.cnblogs.com']
    start_urls = ['http://www.cnblogs.com/']

    def parse(self, response):
        print(response.text)

执行项目
在这里插入图片描述

cd D:\workspace\pythonVip\spider\day20\blogs\blogs> 
scrapy crawl cnblog
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值