Python爬虫+数据分析:采集二手房源数据并做可视化

本文分享了一篇使用Python 3.8进行二手房源数据爬取及可视化的教程。涉及的工具包括Jupyter Notebook和PyCharm,主要使用requests和parsel模块进行数据请求和解析,csv模块进行数据存储。代码示例展示了如何进行多页数据采集,通过设置headers伪装浏览器发送请求,并提取所需信息。最后,文章提到了后续的数据可视化过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

今天我们来分享一个用Python采集二手房源数据信息并做可视化得源码

软件使用:

  • python 3.8 开源 免费的 (统一 3.8)

  • jupyter --> pip install jupyter notebook

  • Pycharm YYDS python最好用的编辑器 不接受反驳…(也可以使用)

模块使用:

第三方:

  • requests >>> 数据请求模块

  • parsel >>> 数据解析模块

内置:

  • csv 内置模块

第三方模块安装:

  1. win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名 (pip install requests) 回车

  2. 在pycharm中点击Terminal(终端) 输入安装命令

如果出现爆红, 可能是因为 网络连接超时, 可切换国内镜像源,命令如下:

pip install -i https://pypi.doubanio.com/simple/ requests

代码展示

获取数据:

导入csv模块

import csv

创建文件

f = open('data.csv', mode='w', encoding='utf-8', newline='')

添加字段名

csv_writer = csv.DictWriter(f, fieldnames=[
        '标题',
        '小区',
        '区域',
        '总价',
        '单价',
        '户型',
        '面积',
        '朝向',
        '装修',
        '楼层',
        '年份',
        '建筑结构',
        '详情页'
])

写表头

csv_writer.writeheader()

导入第三方模块, 需要安装

import parsel
import requests

多页采集

for page in range(1, 101):

请求链接

    url = f'https://cs.lianjia.com/ershoufang/pg{page}/'

伪装浏览器 --> headers 请求头

    headers = {
   
        # User-Agent 用户代理 表示浏览器基本身份信息
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36'
    }

发送请求

    response = requests.get(url, headers=headers)
    html_data = response.text # <
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值