selenium 和 scrapy 配合爬取京东

selenium 和 scrapy 配合爬取京东

spider

import scrapy
from JD.items import JdItem
from selenium import webdriver
from selenium.webdriver.firefox.options import Options


class JdSpider(scrapy.Spider):
    name = 'Jd'
    # 爬虫域
    allowed_domains = ['jd.com']
    # 起始链接
    start_urls = ['https://list.jd.com/list.html?cat=670,671,672']

    def __init__(self):
        """ 
        在爬虫内初始化 selenium 
        减少 selenium 的开关次数
        """
        super().__init__()
        # 无界面模式
        # self.firefox = Options()
        # self.firefox.add_argument('--headless')
        # self.browser = webdriver.Firefox(firefox_options=self.firefox)
        # 有界面
        self.browser = webdriver.Firefox()
        # 超时设置
        self.browser.set_page_load_timeout(15)

    
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值