13、网络爬虫与邮件发送:Python技术实践

网络爬虫与邮件发送:Python技术实践

1. 执行EuroPython爬虫

我们可以使用以下命令来执行EuroPython爬虫:

scrapy crawl europython_spider -o europython_items.json -t json

执行结束后,会生成以下输出文件:
- europython_items.json
- europython_items.xml
- europython.sqlite

这些文件是在 pipelines.py 文件中定义的类里生成的,而JSON文件是由爬虫自动生成的。

另外,爬虫还可以通过 -a 选项处理在爬取命令中传递的参数。例如,下面的命令将从 http://ep2018.europython.eu/en/events/sessions 提取2018年EuroPython会议的会话数据:

scrapy crawl europython_spider -a year=2018 -o europython_items.json -t json
2. 在云端使用Scrapy

在这部分,我们将探索如何使用Scrapy在云端部署爬虫。

2.1 Scrapinghub

首先,需要在Scrapinghub服务上注册,注册地址

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值