selenium必应搜索,获取标题以及url

该代码段展示了一个Python脚本,它利用Selenium库来爬取必应搜索引擎的搜索结果。脚本首先定义了一个函数`get_content`,用于获取每个搜索结果的标题、域名和URL。然后在`main`函数中,根据提供的关键词和页码,调用`get_content`进行爬取,并将结果保存到指定文件中。爬取过程中,它还检查是否存在下一页并进行翻页。最后,结果被写入以当前时间命名的文本文件。

必应搜索,获取标题以及url

import time
from selenium import webdriver
from selenium.common.exceptions import NoSuchElementException

import urllib.parse

def get_content(driver, url):
    driver.get(url)
    time.sleep(sleep_time)
    targets = driver.find_elements_by_xpath("//li[@class='b_algo']/h2/a")
    infos = []
    for t 
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值