PC端win10+selenium+浏览器(IE+Chrome+Firefox+Microsoft Edge)自动化测试驱动下载地址及环境配置

1、IE11驱动下载地址:
http://selenium-release.storage.googleapis.com/index.html
下载3.0.0的版本,将其放在C:\Windows\System32目录下(不用加入环境变量,默认在环境变量中)
检测代码如下:

from selenium import webdriver
driver=webdriver.Ie()
driver.get('https://lanhuapp.com/web/#/item?fid=all&commonly=all')

2、Chrome驱动的下载地址:(选任意一个皆可)
http://chromedriver.storage.googleapis.com/index.html
http://npm.taobao.org/mirrors/chromedriver/
https://googlechromelabs.github.io/chrome-for-testing/
(找到与浏览器版本对应的驱动,下载后放到python的安装根目录下)
检测代码如下:

from selenium import webdriver
driver=webdriver.Chrome()
driver.get('https://lanhuapp.com/web/#/item?fid=all&commonly=all')

3、Firefox驱动下载地址:
https://github.com/mozilla/geckodriver/releases
(下载版本为0.27.0,浏览器版本为80.0.1,驱动放在Python38\Scripts目录下)
检测代码如下:

from selenium import webdriver
driver=webdriver.Firefox()
driver.get('https://lanhuapp.com/web/#/item?fid=all&commonly=all')

4、Microsoft Edge驱动下载地址:
https://developer.microsoft.com/en-us/microsoft-edge/tools/webdriver/
(找到与浏览器对应的版本,下载后将驱动放于浏览器同目录下:C:\Program Files (x86)\Microsoft\Edge\Application目录下)
检测代码如下:

from selenium import webdriver
driver=webdriver.Edge("C:\Program Files (x86)\Microsoft\Edge\Application\msedgedriver.exe")
driver.get('https://lanhuapp.com/web/#/item?fid=all&commonly=all')
编写网络爬虫程序并利用Python语言结合Selenium库来操作ChromeFirefoxEdge浏览器,可以实现对网页的自动化抓取。Selenium是一个广泛使用的工具,它允许我们模拟用户在浏览器中的交互,包括点击、输入文本和滚动页面等。 以下是步骤概述: 1. **安装必要的库**:首先需要安装Python的基础库如requests和BeautifulSoup,以及用于浏览器控制的Selenium和对应的WebDriver(浏览器驱动)。例如,对于Chrome下载ChromeDriver并与之对应。 ```bash pip install requests beautifulsoup4 selenium webdriver_manager ``` 2. **配置WebDriver**:根据你选择的浏览器下载对应版本的WebDriver,并将其添加到系统路径或指定的目录中。 3. **创建Selenium实例**:初始化一个Selenium WebDriver,指定要使用的浏览器(`webdriver.Chrome()` 或 `webdriver.Firefox()` 等)。 4. **打开浏览器**:通过WebDriver实例打开新的浏览器窗口或标签页。 5. **定位元素**:使用Selenium提供的`find_element_by_*`函数定位你要抓取的网页元素,如`find_element_by_css_selector`或`find_element_by_id`。 6. **填充和提交表单**:如果搜索是在网页表单中,可以用Selenium填写表单并提交。 7. **执行搜索**:找到搜索框(通常ID或CSS class名是固定的),输入关键字,然后触发搜索按钮。 8. **解析内容**:使用BeautifulSoup或其他解析库解析返回的HTML,提取你需要的数据。 9. **保存数据**:将抓取的内容存储到文件、数据库或进一步处理。 ```python from selenium import webdriver from bs4 import BeautifulSoup # 创建Chrome浏览器实例 driver = webdriver.Chrome() # 访问百度首页 driver.get('https://www.baidu.com') # 找到搜索框并输入关键词 search_box = driver.find_element_by_id('kw') search_box.send_keys('示例搜索词') # 提交搜索 search_button = driver.find_element_by_id('su') search_button.click() # 等待页面加载完成 driver.implicitly_wait(10) # 获取搜索结果页面源码 page_source = driver.page_source # 使用BeautifulSoup解析源码 soup = BeautifulSoup(page_source, 'html.parser') results = soup.find_all('div', class_='result') # 保存数据或进一步处理... ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值