python3 selenium 无法获取界面元素_python+selenium+webdriver定位不到页面元素,新人求帮忙,困扰几天了...

在使用Python的Selenium和webdriver进行自动化测试时,遇到一个问题:从百度搜索进入思否网站后,无法抓取任何页面元素,提示NoSuchElementException。然而,直接访问思否网站则能成功定位元素。问题可能在于百度搜索后的页面加载或切换。代码包括打开百度,搜索segmentfault,进入思否,尝试点击不同元素。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

使用Python+selenium+webdriver做自动化测试,发现抓取不到页面元素。我的流程是这样的:打开百度首页,输入segementfault点击搜索,选择第一个搜索结果,进入思否首页之后,不管我怎么做,页面上的所有元素都抓取不到,提示我selenium.common.exceptions.NoSuchElementException: Message: Unable to locate element: 。

但是很奇怪的是,我如果直接进入思否的首页,不通过百度搜索,就可以抓取到页面的元素,代码都是一样的,没做任何改变。

代码如下:

from selenium import webdriver

from selenium.webdriver.common.keys import Keys

from selenium.webdriver.common.by import By

from selenium.webdriver.support.wait import WebDriverWait

from selenium.webdriver.support import expected_conditions as EC

import time

driver = webdriver.Firefox()

driver.get("https://www.baidu.com/")

print(driver.title)

driver.find_element_by_xpath('//*[@id="kw"]').send_keys('segmentfault')

driver.find_element_by_xpath('//*[@id="su"]').click()

time.sleep(3)

driver.find_element_by_xpath("/html/body/div[1]/div[5]/div[1]/div[3]/div[1]/h3/a").click()

time.sleep(5)

driver.find_element_by_xpath('/html/body/div[4]/div/div/div[1]/div[2]/a[1]').click()

driver.find_element_by_xpath('/html/body/div[4]/div/div/div[2]/div[4]/div[1]/div/a[2]/div[1]/h4').click()

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值