2-Requests库的使用

【Python3网络爬虫】2-Requests库的使用

介绍

对了解爬虫的一些基本理念,掌握爬虫爬取的流程后,我们需要学习一些更加高级的工具和内容来方便我们的爬取,本节主要介绍requests库的基本用法

安装

pip insatll requests

基本请求

import requests
# requests.api
url = "http://www.baidu.com"
requests.get(url)
requests.options(url)
requests.head(url)
requests.post(url)
requests.put(url)
requests.patch(url)
requests.delete(url)

自定义请求头,超时,代理

import requests
from fake_useragent import UserAgent

url = "http://www.baidu.com"
headers = {
    'User-Agent': UserAgent().chrome
}
proxies = {
    "http": '218.75.158.153:3128'
}

session = requests.Session()
# 禁用安全请求警告
requests.packages.urllib3.disable_warnings()
"""
    @:param headers
        请求头设置
    @:param timeout
        超时设置,单位S
    @:param proxies
        代理设置
"""
resp = session.get(url=url, verify=False, headers=headers, timeout=10, proxies=proxies)
print(resp)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值