这几天学习了 python 爬虫的入门知识,也遇到很多坑,开个贴记录一下
基本原理
Python 爬虫基本要具备以下功能:(参考此回答)
- 向服务器发送请求,服务器响应你的请求。(你可能需要了解:网页的基本知识)
- 从抓取到的网页中提取出需要的数据。(你可能需要了解:正则表达式、Beautifulsoup)
- 保存数据并继续爬取下一个网站。
当然,有以上功能还是不够的,你还需要与网站反爬策略斗智斗勇:(参考此回答)
- 构造合理的HTTP请求头
- 设置cookie
- 正常的时间访问路径
- 注意隐含输入字段值
- 避开蜜罐
- 使用远程服务器来避免IP封锁
当然以上我还不怎么会。
项目实践
可以通过以下2个项目练手
豆瓣电影TOP250
这个项目比较容易,代码复制过来,大概理解代码的意思,然后跑的过程也比较顺利。
话不多说,我们开始吧
爬取拉勾网实战
借用一下@ _知几 的图,按 F12 查看页面源码,在 NETWORK 标签中可以分析网站的请求响应过程,这里看到 NETWORK 标签下 TYPE XHR 里有 companyAjax.json 和

本文介绍了Python爬虫的基本原理,包括发送请求、数据提取和应对反爬策略。通过豆瓣电影TOP250和爬取拉勾网职位信息两个项目进行实践,重点讲述了在爬取拉勾网时如何分析请求响应过程,获取companyAjax.json中的数据。在实践中遇到了被封IP的问题,目前尚未找到解决方案。
最低0.47元/天 解锁文章
7651





