爬取天气(python)

import pandas as pd
import requests
import demjson
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.75 Safari/537.36'}
cook = {"Cookie":'UM_distinctid=168ac0f9119565-044e6209c82f7-57b143a-100200-168ac0f911a588; fingerprint=4263213985; _ga=GA1.2.885880429.1551944653; dj_star_ticket=03a4870f2d42b9699ea2449d8fe96d300001652000; com.xiaoju.ecom.mis.login.sso.cookie.key=A0EfpzXG1TNzgluSddBZiSHrUUoJVLR72GKbu%2F5uUNVzcX6ydZdDwxVx1M11amFRF6chwVSj5Pk6%0A3ValqKhe2J2iDvBhI4B5; omgh5sid=640921997642-1553061738689'}
ym = ['201701','201702','201703','201704','201705','201706','201707','201708','201709','201710','201711','201712','201801','201802','201803','201804','201805','201806','201807','201808','201809','201810','201811','201812','201901','201902','201903']
df = pd.DataFrame()
for i in ym:
    url = "https://tianqi.2345.com/t/wea_history/js/"+i+"/58659_"+i+".js"
    response = requests.get(url, cookies=cook, headers=headers)
    text = response.text
    result = text[len("var weather_str="):len(text)-1:1]
    data = demjson.decode(result)
    for i in range(len(data['tqInfo'])-1):
        df_new = pd.DataFrame(data['tqInfo'][i],index=['a'])
        df = pd.concat([df,df_new],ignore_index=True)
df.to_excel("J:\温州天气数据.xlsx")

要使用Python爬取天气信息,可以使用第三方库如requests和BeautifulSoup来获取和解析网页内容。首先,使用requests库发送HTTP请求获取网页的HTML代码。然后,使用BeautifulSoup库对HTML代码进行解析,提取所需的天气信息。 引用中提到了使用requests和BeautifulSoup来爬取网页数据的示例代码。在该示例中,使用了`requests.get()`方法获取网页内容,然后使用BeautifulSoup来解析HTML代码并提取所需的天气信息。 引用中提到了一个HtmlParser类,它使用BeautifulSoup来解析给定的HTML代码,并从中提取天气信息。在该示例中,使用了`find()`和`find_all()`方法来查找指定的HTML元素,并使用`.string`属性获取元素的文本内容。 引用中还提到了一个DataStorage类,它使用pandas库来存储天气数据。在该示例中,使用了`DataFrame()`方法创建一个数据框,并使用`.to_csv()`方法将数据保存到CSV文件中。 综上所述,要使用Python爬取天气信息,需要使用requests库发送HTTP请求获取网页内容,然后使用BeautifulSoup来解析HTML代码并提取所需的信息,最后使用pandas库将数据存储到文件中。根据引用和引用中的示例代码,你可以参考这些示例来实现你的爬取天气信息的代码。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [Python爬取天气数据,并且进行天气预报(已实现)](https://blog.youkuaiyun.com/qq_50847752/article/details/127884116)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [【Python】实现爬虫(完整版)爬取天气数据并进行可视化分析](https://blog.youkuaiyun.com/chandfy/article/details/125153243)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

吴名氏.

你的鼓励是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值