【Scrapy爬取实例】- 爬取链家网指定城市二手房源信息

一、网站分析
  • 链接分析
    • 城市链接
      北京:https://bj.lianjia.com/ershoufang/
      成都:https://cd.lianjia.com/ershoufang/
      四川:https://sc.lianjia.com/ershoufang/

      可见,不同城市,将标红处改为城市的首字母小写即可。
    • 页面链接
      第一页:https://cd.lianjia.com/ershoufang/pg1
      第二页:https://cd.lianjia.com/ershoufang/pg2
      第三页:https://cd.lianjia.com/ershoufang/pg3

      可见,将标红处依次递增即可。
  • 数据加载方式
    链家的比较简单,网页源码里都有
    数据加载方式
  • 目标信息
    目标信息
    本次抓取目标为上图红框中的关键文字信息。
二、抓取思路

因为信息都在网页源码中,页面链接的生成规律也很简单,所以解决如何生成指定城市的链接即可。
由上述分析可知,城市链接只要将城市名称,如 重庆转为首字母小写 cq,再填入对应位置即可。
其他:

  • 设置请求头、免费代理ip实时切换,处理请求异常
  • 抓取到的信息存入mongodb
三、关键代码
  • item
import scrapy
class ErshoufangItem(scrapy.Item):
    # define the fields for your item here like: 
    title = scrapy.Field() #房屋title
    address = scrapy.Field() #地址
    city = scrapy.Field()#所在城市
    info = scrapy.Field()#具体信息
    totalPrice = scrapy.Field()#总价
    unitPrice = scrapy.Field()#单价
  • spider
import scrapy
from xpinyin import Pinyin #汉字转拼音的库

from ershoufang.items import ErshoufangItem

pinyin = Pinyin()
CRAWL_PAGE = 10 #爬取页数

class LianjiaSpider(scrapy.Spider):
    name = 'lianjia'
    def __init__(sel
Scrapy是一个强大的Python虫框架,用于高效地抓取站数据。如果你想通过Scrapy爬取所有城市的数据,你需要遵循一些基本步骤: 1. **安装 Scrapy**:首先确保已安装Scrapy和其他依赖库,如requests、lxml等。如果还没有安装,可以使用`pip install scrapy`命令。 2. **创建项目**:在终端或命令行中,运行`scrapy startproject lianjia_spider` 创建一个新的Scrapy项目,并选择合适的命名。 3. **定义 Spider**:在`spiders`文件夹下创建一个新的Python文件,例如`lianjia_city.py`,定义Spider类。在这个类中,设置起始URL(首页的城市列表页),并编写解析规则来提取每个城市接。 ```python import scrapy class LianjiaCitySpider(scrapy.Spider): name = "lianjia_city" start_urls = ['http://bj.lianjia.com/'] def parse(self, response): city_links = response.css('a.city-item::attr(href)').getall() # 根据实际页面结构找寻接 for link in city_links: yield {'city': link} # 返回一个包含城市接的基本字典 yield scrapy.Request(link, callback=self.parse_city) # 发送请求到详情页 def parse_city(self, response): # 解析详情页,这里只是示例,具体需要分析详情页HTML结构 city_name = response.css('h1.title::text').get() print(f"City Name: {city_name}") # 提取其他数据... yield { 'city_name': city_name, # ... 其他字段 } ``` 4. **配置 settings**:在settings.py文件中配置下载延迟(避免过于频繁访问导致封IP)、罗列中间件(如处理反策略)以及存储数据的方式(如CSV、JSON或MongoDB等)。 5. **运行虫**:在项目的根目录下,运行`scrapy crawl lianjia_city` 来启动虫。 6. **注意法律和道德规范**:在实际操作时,务必遵守的robots.txt协议,并尊重其服务条款,避免对站造成过大压力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值