静态网页爬虫

本文介绍了如何创建一个静态网页爬虫,包括url管理器、下载器、解析器和输出模块。重点提到在输出阶段,将爬取的数据转化为DataFrame并使用pandas.to_csv()方法保存到CSV文件,同时强调了选择'utf-8'编码以避免无法识别的文本问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

记小白的第一次爬虫经历。
实验环境:Python3.6   IDE :Spyder
需要用到的包:urllib.request(必备),bs4(必备),re,pandas

 

 

目标:爬取股吧论坛个股吧(每支股票)第一页帖子内容(股票代码、帖子url、帖子标题、帖子内容),并输出到csv文件

 

 

 

 

爬虫框架:
 
调度器class SpiderMain(object):

创建四个对象(分别为url管理器对象,下载对象,解析对象,输出对象):

 

爬虫函数def crawl(self, root_url):
本段代码的主要逻辑很简单,就是从未爬取的url集合中取出一个一个url,下载url页面内容,解析页面内容,输出爬取价值信息内容,并将该url放入已爬取url集合中。
第二个while循环是为了设计每爬3000个url
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值