Python爬虫

本文介绍如何使用Python的Requests库进行网络爬虫操作,包括安装、基本使用方法、常见属性及异常处理等内容。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

安装Requests

启动cmd控制台, 安装Requests库(pip install requests)
测试安装效果:启动IDLE

    >>> import requests
    >>> r = requests.get("http://www.baidu.com")
    >>> r.status_code
    200
    >>> r.encoding = 'utf-8'
    >>> r.text

成功抓取百度主页

这里写图片描述

Requests库的get()方法

    r = requests.get(url)

Requests库的2个重要对象:Response(包含爬虫返回的内容)和Request

Response对象的属性

r.status_code HTTP请求的返回状态,200表示连接成功,404表示失败
r.text HTTP响应内容的字符串形式,即url对应的页面内容
r.encoding 从HTTP header中猜测的响应内容编码方式(
r.apparent_encoding 从内容中分析出的响应内容编码方式(备选编码方式)
r.content HTTP响应内容的二进制形式

get方法获取网上资源的基本流程:用r.status_code检查返回状态 ,
情况1:如果是200,可以用r.text、r.encoding、r.apparent_encoding、r.content解析返回的内容;
情况2:返回的是404或者其他,则访问不成功

r.encoding和r.apparent_encoding的区别
r.encoding:如果header中不存在charset,则认为编码为ISO-8859-1
r.apparent_encoding:根据网页内容分析出的编码方式
综上所述,r.apparent_encoding比r.encoding更为准确

**r.raise_for_status()**Requests库用于检验异常

爬取网页的通用代码框架

    def getHTMLText(url):
    try:
    r=requests.get(url,timeout30)
    r.raise_for_status  #如果状态不是200,引发HTTPError异常
    r.encoding = r.apparent_encoding
    return r.text
    ecxept:
    return #产生异常

保证网络连接的异常能够被有效处理

网络爬虫的限制

来源审查:判断User-Agent进行限制
检查来访HTTP协议头的User-agent域,只响应浏览器或者友好爬虫访问
发布公告Robots协议
告知所有爬虫网站的爬取策略,要求爬虫遵守

Robots协议基本语法

User-agent:*
Disallow: /
* 代表所有 , / 代表根目录


实例

(1)京东商品页面的爬取

    >>> import requests
    >>> r = requests.get("http://sale.jd.com/act/L1Y2V6ERZePab4.html?cpdad=1DLSUE")
    >>> r.status_code
    200
    >>> r.encoding
    'utf-8'
    >>> r.text[:1000]

(2)亚马逊商品页面的爬取

这里写图片描述
这里写图片描述

(3)360搜索关键词提交

    >>> import requests
    >>> kv = { 'wd':'Python'}
    >>> r = requests.get("http://www.baidu.com/s",params = kv)
    >>> r.status_code
    200
    >>> r.request.url
'http://www.baidu.com/s?wd=Python'
    >>> len(r.text)
    264348

(4)网络图片的爬取与存储

(二进制格式的图片、动画、视频等都可以爬取)

    >>> import requests
    >>> path = "E://abc.jpg"
    >>> url = "http://p7.qhmsg.com/t0142c4b9ee48e461ed.jpg"
    >>> r = requests.get(url)
    >>> r.status_code
    200
    >>> with open(path,'wb') as f:
    f.write(r.content)  
    >>> f.close
    <built-in method close of file object at 0x00000000042979C0>

图片则保存在E盘中

(5)IP地址归属地的自动查询

    >>> import requests
    >>> url = 'http://m.ip138.com/ip.asp?ip='
    >>> r.status_code
    200
    >>> r.text[-500:]
### Python爬虫的学习资源与使用方法 Python爬虫是一种高效的工具,用于自动化的网络信息采集。由于其丰富的库支持以及简洁易懂的语法特性,Python 成为了编写网络爬虫的最佳选择之一[^3]。 #### 学习Python爬虫的基础知识 学习Python爬虫不仅涉及理论知识的理解,还需要通过实际操作来加深印象。在移动设备上也可以轻松完成这些任务,因为手机端的Python环境配置较为简便,可以随时随地进行实践练习[^1]。 #### 推荐的Python爬虫教程列表 以下是几份高质量的Python爬虫教程推荐: - **基础篇** - 《一只小爬虫》[^2] - 《Python与简单网络爬虫的编写》[^2] - **进阶篇** - 《[Python]网络爬虫(五):urllib2的使用细节与抓站技巧》[^2] - 《[Python]网络爬虫(十):一个爬虫的诞生全过程(以山东大学绩点运算为例)》[^2] - **高级功能** - 《Python爬虫——抓取网页并解析HTML》[^2] - 《Python正则表达式指南》[^2] 除了上述具体的文章外,《Python爬虫新手指南及简单实战》也是一份非常适合初学者的内容,其中包含了详细的案例分析和代码演示[^3]。 #### 实践中的关键技术点 当开始构建自己的第一个爬虫项目时,需要注意以下几个方面: 1. 数据请求模块的选择,比如`requests`或内置的`urllib`。 2. HTML页面解析技术的应用,例如BeautifulSoup或者lxml库。 3. 对于复杂的数据提取需求,则可能需要用到正则表达式的辅助[^2]。 下面展示一段简单的爬虫脚本作为参考: ```python import requests from bs4 import BeautifulSoup url = 'https://example.com' response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') titles = soup.find_all('h1') for title in titles: print(title.text.strip()) ``` 此段程序展示了如何访问目标网址,并从中提取所有的标题标签内容[^3]。 #### 工具扩展建议 如果计划进一步深入研究大数据量场景下的爬虫应用,那么像Pandas这样的数据分析框架将会非常有用。它可以方便地管理和转换所收集到的信息至结构化形式以便后续统计分析工作[^4]。 --- 相关问题
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值