Python|使用 scrapy 框架爬取山东各城市天气预报

实验内容:
安 装 Python 扩 展 库 scrapy , 然 后 编 写 爬 虫 项 目 , 从 网 站 http://www.weather.com.cn/shandong/index.shtml 爬取山东各城市的天气预报数 据,并把爬取到的天气数据写入本地文本 weather.txt。
实验步骤:

  1. 在命令提示符环境使用 pip install scrapy 命令安装 Python 扩展库 scrapy。 2. 在命令提示符环境使用 scrapy startproject sdWeatherSpider 创建爬虫项目。 3. 进入爬虫项目文件夹,然后执行命令 scrapy genspider everyCityinSD.py www.weather.com.cn 创建爬虫程序。 4. 使用浏览器打开网址 http://www.weather.com.cn/shandong/index.shtml, 找到下面位置
    实验步骤:
  2. 在命令提示符环境使用 pip install scrapy 命令安装 Python 扩展库 scrapy。
  3. 在命令提示符环境使用 scrapy startproject sdWeatherSpider 创建爬虫项目。
  4. 进入爬虫项目文件夹,然后执行命令 scrapy genspider everyCityinSD.py www.weather.com.cn 创建爬虫程序。
  5. 使用浏览器打开网址 http://www.weather.com.cn/shandong/index.shtml, 找到下面位置
    在这里插入图片描述 5.在页面上单击鼠标右键,选择“查看网页源代码”,然后找到与“城市预报列表”对应的位置。
    在这里插入图片描述
    6.选择并打开山东省内任意城市的天气预报页面,此处以烟台为例。
    在这里插入图片描述
    7.在页面上单击鼠标右键,选择“查看网页源代码”,找到与上图中天气预报相对应的位置。
    在这里插入图片描述
    8.修改items.py文件,定义要爬取的内容。
import scrapy
class SdweatherspiderItem(scrapy.Item):
       #definethefieldsforyouritemherelike:
       #name=scrapy.Field()
       city=scrapy.Field()
       weather=scrapy.Field()
  1. 修改爬虫文件 everyCityinSD.py,定义如何爬取内容,其中用到的规则参考前面 对页面的分析,如果无法正常运行,有可能是网页结构有变化,可以回到前面的步骤重新 分析网页源代码。
from re import findall 
from urllib.request import urlopen 
import scrapy 
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值