功能强大的python包(十):selenium(浏览器机器人)

1.selenium简介

Selenium是一个用程序操作浏览器的工具,利用它可以实现浏览器自动化、自动化测试、辅助爬虫等。

我们使用浏览器时的所有操作都是基于鼠标和键盘进行交互的,selenium就是用程序的形式来代替我们的键鼠操作,实现自动化的操作。

利用scrapy编写爬虫时,我们可以使用selenium来驱动浏览器加载页面,获取JavaScrapt渲染后的页面HTML代码,而无须考虑网页的加载形式、接口是否加密等一系列复杂的问题。

2.selenium总览

selenium

浏览器驱动

通过指定操作的浏览器驱动,我们可以通过selenium用代码来操作浏览器。

驱动代码实现
Chrome浏览器driver = webdriver.Chrome( )
IE浏览器driver = webdriver.Ie( )
Edge浏览器driver = webdriver.Edge( )
Opera浏览器driver = webdriver.Opera( )
PhantomJS浏览器driver = webdriver.PhantomJS( )
元素定位

利用元素定位可以找到加载页面中的任何对象,类似于我们查看加载的页面,并找到我们的目标信息,以便执行下一步的操作。

元素定位

元素定位代码实现
id定位find_element_by_id( )、find_element(By.ID,‘id’)
name定位find_element_by_name( )、find_element(By.NAME,‘name’)
class定位find_element_by_class_name( )、find_element(By.CLASS_NAME,‘class_name’)
link定位find_element_by_link_text( )、find_element(By.LINK_TEXT,‘link_text’)
tag定位find_element_by_tag_name( )、find_element(By.TAG_NAME,‘tag_name’)
xpath定位find_element_by_xpath( )、find_element(By.XPATH,‘xpath’)
css定位find_element_by_css( )、find_element(By.CSS,‘css’)
浏览器操作

浏览器操作是针对浏览器客户端的一些操作,如我们常用的最大化、最小化等。

浏览器操作代码实现
最大化browser.maximize_window( )
最小化browser.minimize_window( )
设置窗口大小browser.set_window_size( )
前进browser.forword( )
后退browser.back( )
刷新browser.refresh( )
操作测试对象

操作测试对象是我们在自动化测试中常用的一些方法,主要是对定位到的元素进行操作。

操作测试对象代码实现
点击对象click( )
模拟按键输入send_keys( )
清除对象内容clear( )
提交对象内容submit( )
获取元素文本信息text( )
键盘事件

在操作测试对象中,send_keys( )中可以传递键盘事件,相当于我们按下一下特殊的按键。
键盘事件

键盘事件代码实现
TABsend_keys(Keys.TAB)
ENTERsend_keys(Keys.ENTER)
BackSpacesend_keys(Keys.BackSpace)
Spacesend_keys(Keys.Space)
Escsend_keys(Keys.Esc)
F1send_keys(Keys.F1)
F12send_keys(Keys.F12)
全选send_keys(Keys.CONTROL,‘a’)
复制send_keys(Keys.CONTROL,‘c’)
剪切send_keys(Keys.CONTROL,‘x’)
粘贴send_keys(Keys.CONTROL,‘v’)
鼠标事件

鼠标事件能够用于执行所有鼠标能够完成的操作。
鼠标事件

鼠标事件代码实现
执行ActionChains中的操作perform( )
右击content_click( )
双击double_click( )
拖动drag_and_drop( )
鼠标悬停move_to_element( )
窗口、框架切换

当打开多个网页时,利用窗口、框架切换方法可以切换显示网页。
窗口切换

获取断言信息

cookie操作

在这里插入图片描述

3.selenium应用于爬虫

selenium应用于爬虫,主要是为了解决scrapy无法解决的问题:获取JavaScrapt渲染后的页面HTML代码。

在之前讲解scrapy库的文章中,我们了解到引擎于爬虫之间存在一个下载器中间件,scrapy就是通过这种下载器中间件来下载网页源码的;但面对JavaScrapt渲染的网页,这个下载器中间件就无能为力了,这时selenium就起到了替代下载器中间件的作用。

selenium在爬虫中的主要应用流程如下图:

"""苏宁易购查找iphone"""

from selenium.webdriver.common.keys import Keys
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait
from selenium import webdriver

driver = webdriver.Edge(executable_path='msedgedriver.exe')
driver.get('https://www.suning.com')

input = driver.find_element_by_id('searchKeywords')

input.clear
input.send_keys('iphone')
input.send_keys(Keys.RETURN)

wait = WebDriverWait(driver,10)
wait.until(EC.presence_of_element_located((By.CLASS_NAME,'root990')))
print(driver.page_source)
"""自动下拉页面"""

from selenium import webdriver
import time

driver = webdriver.Edge(executable_path='msedgedriver.exe')
driver.get('https://www.suning.com/')
time.sleep(4)

input = driver.find_element_by_id('searchKeywords')
input.clear
input.send_keys('iphone')
input.send_keys(Keys.RETURN)
driver.execute_script('window.scrollTo(0,document.body.scrollHeight)')
"""定位元素"""

from selenium import webdriver

driver = webdriver.Edge(executable_path='msedgedriver.exe')
driver.get('https://www.suning.com/')

input_id = driver.find_element_by_id('searchKeywords')
input_name = driver.find_element_by_name('index1_none_search_ss2')
input_xpath = driver.find_element_by_xpath("//input[@id='searchKeywords']")
input_css = driver.find_element_by_css_selector('#searchKeywords')
print(input_id,input_name,input_xpath,input_css)
"""等待页面加载完成"""

from selenium import webdriver
from selenium.common.exceptions import TimeoutException

driver = webdriver.Edge(executable_path='msedgedriver.exe')

#设置页面加载的超时时间
driver.set_page_load_timeout(5)
try:
	driver.get('https://www.suning.com/')
	driver.execute_script('window.scrollTo(0,document.body.scrollHeight)')
	print(driver.page_source)
except TimeoutException:
	print('timeout')
driver.quit()

"""隐式等待"""

from selenium import webdriver

driver = webdriver.Edge(executable_path='msedgedriver.exe')
driver.implicitly_wait(5)
driver.get("https://www.suning.com/")
print(driver.page_source)

"""显示等待"""

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as EC
from selenium.common.exceptions import TimeoutException

driver = webdriver.Edge(executable_path='msedgedriver.exe')
driver.get('https://www.suning.com/')

try:
    input = WebDriverWait(driver,10).until(EC.presence_of_element_located((By.ID,"searchKeywords")))
    print(input)
except TimeoutException:
    print('time out!')
driver.quit()
 scrapy框架只能爬取静态网站,如需爬取动态网站,需要结合selenium库进行js的渲染,方可爬取到动态页面。

写在最后

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值