scrapy爬取爱上租网站的房源信息(二)

本文探讨了爬虫数据存储的两种常见方式:直接存入数据库和先保存为CSV文件再导入。通过实例演示如何使用MySQL数据库,介绍了items和pipelines在Scrapy中的应用,以及CSV文件的创建与写入过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

现在我们需要将所有的数据存到数据库中,一般有两种方式:直接存到数据库中和先保存为csv文件再导入数据库

两种方式我都尝试了,我用的是mysql数据库

一、直接存到数据库中

使用items包装需要爬取的内容。把内容都用items.py来进行管理,便于把抓取的内容传递进pipelines进行后期处理,同时分工明确

接下来在爬虫文件中添加以下内容,将数据传给pipeline.py去处理

在pipeline中连接数据库,并创建一个表

一开始时将连接数据库放到初始化函数中,但一直提示pipeline.py中没有属性cursor,具体原因还未弄懂,有知道的大神麻烦在评论取讲解下

接下来插入数据,最后记得关闭连接

二、保存为CSV文件

在初始化中打开csv文件,如果csv文件不存在,就会自动新建,并且将列名写入第一行

接下来将前面传过来的item写入csv中,最后同样记得关闭

然后我们就看到文件下多了个csv文件

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值