selenium爬取新浪微博

本文介绍了一个利用Selenium登录新浪微博并搜索关键字,爬取内容的过程。内容抓取后,通过MongoDB数据库进行存储,利用update_one实现去重功能。同时,通过tqdm添加进度条以监控爬取进度。为了提高效率,采用无头浏览器并禁载图片,解析页面则采用了Scrapy的selector工具。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

逻辑很简单,先登录之后,搜索一个关键字,爬取内容

注意

  1. 使用mongodb数据库,注意update_one自带去重。
  2. tqdm添加进度条
  3. 无头浏览器
  4. 不加载图片
  5. 使用scrapy的selector解析页面

from selenium import webdriver
from scrapy import Selector
import time
import pymongo
from tqdm import tqdm


# 链接到mongodb
client = pymongo.MongoClient('localhost', 27017)
# 使用名叫weibo的数据库
db = client.weibo

chrome_options = webdriver.ChromeOptions()
# 配置不加载图片
prefs = {
   "profile.managed_default_content_settings.images": 2}
chrome_options.add_experimental_option("prefs", prefs)
# 配置无头浏览器
chrome_options.add_argument('--headless')
browser = webdriver.Chrome(options=chrome_options)

# browser = webdriver.Chrome()

# 打开登陆页面
browser.get(
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值