Python-爬虫抓取天气信息

博主分享了西安未如预测的大雨经历,用轻松幽默的方式调侃了天气预报,同时展示了如何通过编程获取天气信息。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

上周

砖家预测西安在10-11日

会有一场十年不遇的大雨

像我这样优秀的人

必须得提醒大家

于是

我提前三四天开始给大家预热

然而

除了我的眼泪

就没有更大的雨滴

所以我暗下决心

我命由我不由天

在这炎热的夏季

我的命就是空调、冰箱、大西瓜

火腿、花生、八宝粥

啤酒、饮料、矿泉水

咳咳

当然还有天气预报

分析:

1、毫无分析可言,代码也就十来行

翠花,上酸菜

1、使用链接和城市名拼接,可以获取该城市天气信息

http://wthrcdn.etouch.cn/weather_mini?city=西安

2、抓取的数据是json格式,可以直接用json解析

源码:

# -*- encoding:utf8 -*-

import json
import requests
import re


WEATHER_URL    = "http://wthrcdn.etouch.cn/weather_mini?city="

def GetWeatherInfo(cityName) :
    weatherJsonUrl = WEATHER_URL + cityName
    response = requests.get(weatherJsonUrl)  # 获取并下载页面,其内容会保存在respons.text里
    response.raise_for_status()  # 请求失败的话就会抛出异常

    # 将json文件格式导入成python的格式
    weatherData = json.loads(response.text)
    #print(weatherData)

    weather_dict = dict()
    weather_dict['type'] = weatherData['data']['forecast'][0]['type']
    weather_dict['high'] = weatherData['data']['forecast'][0]['high']
    weather_dict['low'] = weatherData['data']['forecast'][0]['low']
    weather_dict['fengxiang'] = weatherData['data']['forecast'][0]['fengxiang']
    weather_dict['ganmao'] = weatherData['data']['ganmao']

    logInfo = cityName + ": "
    for i, value in enumerate(weather_dict.values()) :
        logInfo += value
        if i < len(weather_dict.values())-1 :
            logInfo += ", "
        else :
            logInfo += "\n"
    print(logInfo)
	
def main() :
    GetWeatherInfo('西安')

main()

抓取截图:

 

Python爬虫抓取天气数据通常涉及以下几个步骤: 1. **选择API或网站**:许多天气服务提供API,如中国气象局的API、Weather API或AccuWeather等。如果没有官方API,也可以直接从公开网页抓取,比如OpenWeatherMap的免费版。 2. **获取API密钥(如有需要)**:对于需要API访问的服务,你需要注册并获取一个API密钥,以便后续请求数据。 3. **使用库**:Python有许多用于网络爬取的库,如requests(发送HTTP请求)、BeautifulSoup或Scrapy(解析HTML内容)。例如,`requests`可以用来发送GET请求到API,`json`处理返回的JSON格式数据。 4. **编写代码**:创建一个函数,利用上述库设置请求头(可能包含API密钥),向指定URL发送请求,然后解析返回的数据。如果是API响应,直接解析成Python字典或列表;如果是网页,先转换成HTML再提取所需信息。 5. **存储数据**:抓取到的数据可能存入CSV、Excel文件,或者数据库中,根据需求选择合适的存储方式。 6. **异常处理**:确保在抓取过程中处理可能出现的错误,比如网络连接问题、API限制或页面结构变化。 下面是一个简单的示例,假设使用requests库和pyquery库来抓取网页数据: ```python import requests from bs4 import BeautifulSoup def get_weather_data(city): url = f'https://www.example.com/weather/{city}' response = requests.get(url) if response.status_code == 200: soup = BeautifulSoup(response.text, 'html.parser') # 使用CSS选择器或XPath定位天气信息 temperature = soup.select_one('.temperature').text description = soup.select_one('.weather-description').text return {'city': city, 'temperature': temperature, 'description': description} else: print(f"无法获取数据:{response.status_code}") # 示例城市 city = '北京' data = get_weather_data(city) print(data)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值