下载空气质量历史数据(小时数据)

import os
import urllib
import urllib.request
import datetime
import base64
import json

home = "https://www.aqistudy.cn/api/getdata_citydetail.php"

def datetime_offset_by_month(datetime1, n=1):
    one_day = datetime.timedelta(days=1)

    q, r = divmod(datetime1.month + n, 12)

    datetime2 = datetime.datetime(
        datetime1.year + q, r + 1, 1) - one_day

    if datetime1.month != (datetime1 + one_day).month:
        return datetime2

    if datetime1.day >= datetime2.day:
        return datetime2

    return datetime2.replace(day=datetime1.day)

def down_city(city, startTime, endTime, type):
    c = base64.b64encode(city.encode("utf-8")).decode("utf-8")
    st = base64.b64encode(startTime.encode("utf-8")).decode("utf-8")
    et = base64.b64encode(endTime.encode("utf-8")).decode("utf-8")
    t = base64.b64encode(type.encode("utf-8"))
    t = base64.b64encode(t).decode("utf-8")

    params = urllib.parse.urlencode({'city':c,'startTime':st,'endTime':et,'type':t});
    request = urllib.request.Request(home,data=params.encode("utf-8"),method="POST")
    response = urllib.request.urlopen(request)
    page = response.read()

    page = base64.b64decode(page)
    page = base64.b64decode(page)
    page = page.decode("utf-8")
    page = page.replace(city, "")
    print(page)

    js = json.loads(page)
    rs = js["rows"]
    # 创建目录
    if not os.path.exists(os.getcwd() + "/data/" + city):
        os.makedirs(os.getcwd() + "/data/" + city)

    # 文件存在则不下载
    dt  = datetime.datetime.strptime(startTime, "%Y-%m-%d %H:%M:%S")
    dts = dt.strftime("%Y-%m")
    file = os.getcwd() + "/data/" + city + "/hour_" + dts + ".txt"
    print(file)
    if os.path.exists(file):
        os.remove(file)

    s = ""
    s += "time\t"
    s += "aqi\t"
    s += "pm2_5\t"
    s += "pm10\t"
    s += "co\t"
    s += "no2\t"
    s += "o3\t"
    s += "so2\t"
    s += "rank\n"
    for r in rs:
        s += str(r["time" ]) + "\t"
        s += str(r["aqi"  ]) + "\t"
        s += str(r["pm2_5"]) + "\t"
        s += str(r["pm10" ]) + "\t"
        s += str(r["co"   ]) + "\t"
        s += str(r["no2"  ]) + "\t"
        s += str(r["o3"   ]) + "\t"
        s += str(r["so2"  ]) + "\t"
        s += str(r["rank" ]) + "\n"
    f = open(file, "w")
    f.write(s)
    f.close()
    

if __name__ == "__main__":
    city      = "兰州"
    startTime = "2016-01-01 00:00:00"
    endTime   = "2017-02-01 00:00:00"
    type      = "HOUR"
    ds  = datetime.datetime.strptime(startTime, "%Y-%m-%d %H:%M:%S")
    de  = datetime.datetime.strptime(endTime,   "%Y-%m-%d %H:%M:%S")
    dt  = datetime_offset_by_month(ds, n=1)
    dts = dt.strftime("%Y-%m-01 00:00:00")
    dt  = datetime.datetime.strptime(dts,   "%Y-%m-%d %H:%M:%S")
    while dt < de:
        dss = ds.strftime("%Y-%m-%d %H:%M:%S")
        dts = dt.strftime("%Y-%m-%d %H:%M:%S")
        down_city(city, dss, dts, type)
        ds = dt
        dt = datetime_offset_by_month(dt, n=1)

    dss = ds.strftime("%Y-%m-%d %H:%M:%S")
    dts = de.strftime("%Y-%m-%d %H:%M:%S")
    down_city(city, dss, dts, type)

    print("finished!")

转载于:https://my.oschina.net/li0544/blog/823425

<think>好的,用户想下载空气质量历史数据到Excel文件。首先,我需要根据提供的引用信息来整理可行的步骤。引用[2]和[3]提到有现成的数据包,可以直接下载2013-2023年的数据,这可能是一个快捷的方法。用户需要访问数据云平台或通过百度云链接获取,可能需要联系客服购买更早的数据。 然后,引用[4]提到使用pyppeteer库来爬取动态网页的数据。这需要用户具备一定的编程知识,尤其是Python和网页爬虫的经验。步骤包括设置时间、选择AQI类型、抓取数据并导出到Excel。这部分可能需要详细说明,比如安装依赖库、编写代码示例,以及处理可能遇到的动态内容问题。 另外,用户可能需要考虑数据源的可靠性和格式。例如,引用[1]提到Excel文件中包含站点编号、城市、经纬度等信息,以及每日24小时的AQI数值。需要确保下载数据结构符合用户需求,或者指导用户如何整理数据。 用户可能没有提到的需求包括数据的更新频率、是否需要实时数据,或者特定城市的覆盖范围。但根据问题描述,主要关注历史数据下载到Excel,因此重点应放在现有数据包和爬虫方法上。 最后,生成相关问题时要涵盖不同方法的使用、数据时间范围、处理工具以及可能的问题,帮助用户全面了解选项。</think>### 分步解答:下载空气质量历史数据至Excel #### 方法1:使用现有数据包(推荐) 1. **获取数据来源** - 地球资源数据云提供 **2020-2023年逐日空气质量数据**,以及 **2014年5月至今的完整数据**,需联系客服购买[^2]。 - 全国357个城市 **2013-2021年逐月、逐日数据** 可通过百度云链接下载,包含Excel文件(日均值和月均值)[^3]。 2. **操作步骤** - 访问数据平台或云盘链接,按说明下载压缩包。 - 解压后,每个Excel文件包含字段:`站点编号、站点名称、所属城市、经纬度、日期及对应AQI值`[^1]。 --- #### 方法2:通过爬虫工具动态抓取(需编程基础) 1. **使用`pyppeteer`库(Python)** - **适用场景**:动态网页(如JavaScript渲染的空气质量监测平台)[^4]。 - **步骤**: ```python from pyppeteer import launch import pandas as pd async def fetch_aqi_data(): browser = await launch() page = await browser.newPage() await page.goto('目标网站URL') # 模拟选择日期和AQI类型 await page.type('#date_input', '2023-01-01') await page.click('#aqi_type_dropdown') # 提取数据 content = await page.content() # 使用正则表达式解析数据 aqi_values = re.findall(r'AQI: (\d+)', content) # 保存到Excel df = pd.DataFrame(aqi_values, columns=['AQI']) df.to_excel('aqi_data.xlsx') await browser.close() # 执行函数 import asyncio asyncio.get_event_loop().run_until_complete(fetch_aqi_data()) ``` 2. **注意事项** - 需替换为目标网站的真实URL及元素选择器。 - 动态网页结构可能变化,需定期维护代码[^4]。 --- #### 方法3:公开数据平台API 1. **部分政府或环保平台提供API接口** - 调用API获取JSON/CSV格式数据后,用Excel导入。 - 示例流程: - 注册并申请API密钥。 - 使用Python的`requests`库请求数据: ```python import requests import pandas as pd url = "API地址" params = {'city': '北京', 'key': '你的密钥'} response = requests.get(url, params=params) data = response.json() pd.DataFrame(data).to_excel('北京空气质量.xlsx') ``` ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值