requests请求

本文介绍如何利用Python的Requests库发送GET请求,获取并解析百度地图API提供的天气信息。通过实例演示了如何初始化请求URL,发送请求,处理响应,并解析JSON数据,最终展示城市天气详情。

requests 是对 urlopen 的封装

常用方法如下:import requests

url = 'http://www.baidu.com'
# get和pose请求
response = requests.get(url)
# 请求成功
print(response)
# 获取网页文本内容
print(response.text)
# reason 原因
# 请求状态的说明
print(response.reason)
# link 跳转的地址
print(response.links)
# 请求历史
print(response.history)
# 请求编码格式
print(response.apparent_encoding)
# 设置响应的编码格式为网页的编码格式
response.encoding = response.apparent_encoding
# 获取网页内容(bytes形式)
print(response.content)
# 获取网页cookie
print(response.cookies)
# 获取响应头信息
print(response.headers)
# 获取请求的网址
print(response.request.url)

以获取城市天气为例:

import requests
import json
from prettyprinter import pprint

class Weather(object):
   def __init__(self):
       # 获取本地信息
       self.location_url = 'http://api.map.baidu.com/location/ip?&ak=KQvhEkxc6mFCAYHTblC3NGVmxzxIWk0E&coor=bd09ll'
        # 获取天气信息
       self.weather_url = 'http://api.map.baidu.com/telematics/v3/weather?output=json&ak=TueGDhCvwI6fOrQnLM0qmXxY9N0OkOiQ&callback=?&location='

   def start_spider(self):

       cityName =self.get_location()
       self.get_Weather_info(cityName)

       while True:
           cityName = input('请输入城市名字')
           if cityName == 'E':
               return
           self.get_Weather_info(cityName)

   def get_location(self):
       response = requests.get(self.location_url)
       print(response)
       # 获取网页的内容
       print(response.content)
       # 将内容转化为字典对象
       result_dic = json.loads(response.content)
       pprint(result_dic)
       city = result_dic['content']['address_detail']['city']
       return city
   def get_Weather_info(self,cityName):
       url = self.weather_url + cityName
       response = requests.get(url)
       weather_dic = json.loads(response.content)
       pprint(weather_dic)
       for dayDic in weather_dic['results'][0]['weather_data']:
           print('{}'.format(dayDic['date']))
           print('温度:{}'.format(dayDic['temperature']))

w= Weather()
w.start_spider()

 

 

 

 

 

引用中提到了requests模块可以简化复杂的请求头设置。在使用requests发送网络请求时,可以通过设置headers参数来传递请求头信息。请求头是包含一些关键信息的HTTP头部字段,用于告诉服务器关于请求的一些重要信息,比如User-Agent、Accept-Language等。通过设置请求头,可以模拟浏览器的头部信息来进行访问,解决服务器拒绝访问的问题。其中给出了一个示例代码,可以通过创建一个字典来设置头部信息,然后将该字典作为headers参数传递给requests.get()方法来发送请求。例如: ```python import requests url = 'https://www.example.com/' # 替换为需要请求的网址 headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:72.0) Gecko/20100101 Firefox/72.0'} response = requests.get(url, headers=headers) print(response.status_code) ``` 在上述代码中,我们通过设置User-Agent字段来模拟Firefox浏览器发送请求头信息,并通过requests.get()方法发送了一个GET请求。最后,我们打印了响应状态码。这样就可以通过设置请求头来进行requests请求了。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [爬虫实战学习笔记_6 网络请求request模块:基本请求方式+设置请求头+获取cookies+模拟登陆+会话请求+验证...](https://blog.youkuaiyun.com/qq_39237205/article/details/123805848)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值