Python网络爬虫:利用bs4与selenium爬取中国天气网

本文介绍了一种使用Python和相关库(如BeautifulSoup4、requests、selenium、openpyxl)从中国空气质量在线监测分析平台爬取北京近三年空气质量历史数据的方法,并将其存储在Excel文件中。

任务: 从中国空气质量在线监测分析平台,按日爬取北京近3年的空气质量历史数据,存储在CSV/Excel数据表格中。
爬取网址:中国空气质量在线监测分析平台
运行环境:Python 3.7.2
第三方库:BeautifulSoup4(解析网页)、requests(获取打开网页)、selenium(模拟浏览器)、time(控制动态访问时间)、openpyxl(保存数据)
浏览器要求:需下载与本机谷歌浏览器版本配套的驱动chromedriver.exe,保存到相应安装目录;网址: http://npm.taobao.org/mirrors/chromedriver/ ;此处可以替换为其他浏览器,如火狐等。
网页分析: 通过分析网页代码可知,天气数据在tbody标签下面的所有tr子标签,其中第一个tr存储标题信息,其他tr存储对应url的每日天气信息,如下图:
在这里插入图片描述
运行结果:
在这里插入图片描述
源代码:

import requests
import time
from openpyxl import Workbook,load_workbook
from bs4 import BeautifulSoup
from selenium import webdriver

#循环遍历获取对应天气数据的URL
def url(place):
    ls=[]
    for i in range(6,10):
        if i==9:
            for j in range(1,5):
                c=(2010+i)*100+j
                s="https://www.aqistudy.cn/historydata/daydata.php?city="+str(place)+"&month="+str(c)#观察网址变化部分,将网址看成字符串进行相关格式变化
                ls.append(s)
        else:
            for j in range(1,13):
                c=(2010+i)*100+j
                s="https://www.aqistudy.cn/historydata/daydata.php?city="+str(place)+"&month="+str(c)
                ls.append(s)
    return ls #以列表作为返回值
    
#通过URL动态加载页面
def getText(url):
    browser.get(url)
    time.sleep(3)  #等待模拟浏览器动态加载页面,每个三秒访问一次
    text = browser.page_source
    return text
#获取特定网页标签下的天气数据

def getData(text,ls1,i):
    global ls
    ls=ls1
    soup=BeautifulSoup(text,"html.parser")
    tr1=soup.tbody.tr       #定位第一个tr标签
    tr2=tr1.find_all("th")  #定位tr标签下的th标签
    tr3=soup.find("tbody").find_all("tr")
    temp=[]
    if i==0:    #通过条件语句的判断保证表头的唯一性
        for th in tr2:
            s=th.get_text()
            temp.append("".join(s.split()))
        ls.append(temp)
    #双重循环获取tr标签下所有td标签的内容并添加到列表
    for tr in tr3[1:]:
        temp=[]
        tds=tr.find_all("td")
        for td in tds:
            b=td.get_text()
            temp.append("".join(b.split()))
        ls.append(temp)
    return ls
    
#将天气数据写入Excel
def writexlsx(file,ls,name):
    index = len(ls)
    #打开Excel
    wb=load_workbook(file)
    #创建工作簿
    sheet=wb.create_sheet(name)
    #设置格式
    sheet.column_dimensions['A'].width=13
    #按行加入
    for i in range(index):
        sheet.append(ls[i])
    #保存文件
    wb.save(file)
    print("天气数据写入成功!")
    
#主函数:完成加载页面、子函数的调用
if __name__=='__main__':
	ls1=[]
	place=input("请输入你想要查询的城市(市级以上):")
 	name=str(place)+"的天气数据"
 	print("数据正在写入,请耐心等待!")
 	browser = webdriver.Chrome(executable_path ='C:\Program Files (x86)\Google\Chrome\Application\chromedriver.exe')
 	for i in range(len(url(place))):
   	 	ls=getData(getText(url(place)[i]),ls1,i)
 	file=r'C:\Users\jl\Desktop\天气.xlsx'
 	writexlsx(file,ls,name)
爬取空气质量检测的部分城市的历年每天质量数据 思路----------------------------------------- 从某城市的空气质量页获取某市每月的链接,再爬取每个月的表格数据。连云港市:https://www.aqistudy.cn/historydata/daydata.php?city=连云港 连云港2014年5月的空气质量:https://www.aqistudy.cn/historydata/daydata.php?city=连云港&month=2014-05 遇到的问题----------------------------------------- 获取的页中的表格数据隐藏,尝试requests无法获取。判断可能是动态加载的页 尝试----------------------------------------- 1. 通过XHR,js查找隐藏数据的加载页,没有找到。 2. 使用phantomjs.get() result=pd.read_html ,可以获得隐藏的表格数据,但是并不稳定,只是偶尔出现加载的表格数据,无法大规模的获取 解决方法----------------------------------------- 查找资料得知这个站的表格数据在Console里的items中, 使用selenium的webdriver.firefox(),driver.execute_script("return items") 数据可获得。 仍遇到的问题:----------------------------------------- 爬取一个页可获得数据,但是连续的获取页,会出现两个错误。 1.Message: ReferenceError: items is not defined 2.connection refused 解决方法: 1.connection refused问题,可能是页开太多,使用driver.quit() 2. 如果 execute_script 还是出错,可尝试pd.read_html获取信息。之前用phantomjs获取的时候输出空的表格,可能由于加载不够,用 Waite直到table出现之后再获取页 Element=wait.until(EC.element_to_be_clickable((By.XPATH,"/html/body/div[3]/div[1]/div[1]/table/tbody"))) 3.之后出现偶尔出现输出为空,使用循环,如果输出表格为空,再重新获取。 if len(result)>1: filename = str(month) + '.xls' result.to_excel('E:\python\案例程序\data\\' + filename) print('成功存入'+filename) driver.quit() else: driver.quit() return getdata(monthhref,month)
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值