Python爬虫-Scrapy框架(序篇)

初步学习Python爬虫-Scrapy框架

写在前面

因为最近在学校里参加的科创项目中涉及到了爬虫,所以开始着手学习一些相关知识。起初是想把学习过程记录下来,整理一些学习资料;后来想到或许可以给其他要学习爬虫的同学提供一点点思路,遇到问题一起讨论,共同进步。

作为一个初学者,文中可能会出现纰漏,希望大家谅解,并且在这里留下我的邮箱(sunzhihao_future@nuaa.edu.cn)

计划中的计划

在着手这篇文章之前,通过参考一些书籍以及课程制定了初步学习Python爬虫的计划,争取在学习过程中逐步完善。
1. Scrapy环境安装
2. 交互式命令模式
3. 爬虫数据入库
4. 内置爬虫类型
_4.1 访问二级链接
_4.2 初探Crawl Spider
_4.3 使用正则表达式提取链接
5. 内置管道文件
6. 下载器中间件
7. 爬虫中间件

争取近一段时间内完成对Scrapy框架的学习,然后抓紧着手科创项目,这应该算得上是本科生涯中首次自己学习一项课程之外的知识,希望自己能够坚持下来,完成最初的目标!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值