【python爬虫 系列】12.实战一 爬取北京地区所有的房租信息

实战一
爬取北京地区所有的房租信息

1.要求
包括以下信息:
标题,租金,出租方式,户型,建筑面积,
朝向,楼层,装修等信息
存储于MYSQL中。导出excel或者csv
Sql导出csv方法:
select * from house into outfile "D:/out.csv

2.分析信息:
网址:https://zu.fang.com/

直接请求时请求不到页面
需要具备各种参数
启动Fiddler编写测试

需要三个参数
头部
来源
Cookies

3.设计架构:
数据库db.py
爬虫main.py
测试test.py

我们发起的request请求太多,
使用长连接,避免占用太多资源

4.编写db.py(创建表)

4.1这在之前,我们先调节一下我们的数据库配置文件,改为:

[client]
#设置mysq|客户端默认字符集
# default character- set=utf8

[mysqld]
#设置3306端口
port = 3306
#设置mysql的安装目录
basedir=D:\mysql-8.0.19-winx64
#允许最大连接数
max_connections=1000
#服务端使用的字符集默认为8比特编码的latin1字符集
character-set-server=utf8
#创建新表时将使用的默认存储引擎
default-storage-engine=INNODB
#导出文件需要
secure_file_priv="D:/"

4.2链接数据库:

在这里插入图片描述

4.3写入db.py:

#存放数据库代码

#导入包
from sqlalchemy import create_engine
from sqlalchemy import Column,Integer,String
from sqlalchemy.orm import sessionmaker,scoped_session
from sqlalchemy.ext.declarative import declarative_base
#创建连接
BASE=declarative_base() #创建基类
# 连接数据库
engine = create_engine(
	"mysql+pymysql://root:123456@127.0.0.1:3306/test?charset=UTF8MB4",# (里面的 root 要填写你的密码),注意:mysql+pymysql 之间不要加空格
	# "mysql + pymysql://root:root@localhost/test",
	max_overflow = 500, # 超过连接池大小之后,外最多可以创建的链接
	pool_size = 100, # 连接池大小
	echo = True, # 调试信息展示
)
#建表
class House(BASE):
	__tablename__="house" #表名 
	id=Column(Integer,primary_key=True,autoincrement=True) #id 主键自增
	block=Column(String(125))
	rent=Column(String(125))
	data=Column(String(225))

#建立数据库
BASE.metadata.create_all(engine) #创建

Session=sessionmaker(engine) 
sess=scoped_session(Session)  #为了线程安全

4.4运行后在cmd查看运行结果:

5.编写main.py
用session取代requests
解析库使用xpath
并发库使用concurrent

5.1Headers的构建(在开发者页面里找到参数):

headers={
   'cookie': 'global_cookie=txaxdx88dpgv9a49oflr6w4j61yk6sncq90; integratecover=1; city=www; g_sourcepage=zf_fy%5Elb_pc; __utmc=147393320; ASP.NET_SessionId=pyefmyz0epjjnlcjw0yllr4r; keyWord_recenthousebj=%5b%7b%22name%22%3a%22%e6%b5%b7%e6%b7%80%22%2c%22detailName%22%3a%22%22%2c%22url%22%3a%22%2fhouse-a00%2f%22%2c%22sort%22%3a1%7d%5d; Captcha=565778754464366F3136557A644C556259477767704D334E4F37783431497978657165764544395474336737653179312F554358594E52367A6B566A5232373549695265782B76703633733D; unique_cookie=U_tc13v239pj2xmb5t6dasouizw1nk79um3rd*4; __utma=147393320.411936847.1583116386.1583116386.1583119062.2; __utmz=147393320.1583119062.2.2.utmcsr=zu.fang.com|utmccn=(referral)|utmcmd=referral|utmcct=/; __utmt_t0=1; __utmt_t1=1; __utmt_t2=1; __utmb=147393320.3.10.1583119062',
'referer': 'https://zu.fang.com/',
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3947.100 Safari/537.36'}

4.2分析url(对爬取的多个页面url进行分析寻找规律)

部分url:

https://zu.fang.com/house -a01/
https://zu.fang.com/house- a00/
https://zu.fang.com/house- a010/
https://zu.fang.com/house-a016/

分析结果:urls=['https://zu.fang.com/house-a0{}/'.format(i) for i in range(1,17)]
4.3初步编写main.py
首先写单线程模式,优化是后期的事情过早优化会让代码复杂,可读性低

import requests
from lxml import etree
import re
from urllib import parse
from concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor
from db import sess,House  #从我们的db.py引入 线程安全和表

headers={
   'cookie': 'global_cookie=txaxdx88dpgv9a49oflr6w4j61yk6sncq90; integratecover=1; city=www; g_sourcepage=zf_fy%5Elb_pc; __utmc=147393320; ASP.NET_SessionId=pyefmyz0epjjnlcjw0yllr4r; keyWord_recenthousebj=%5b%7b%22name%22%3a%22%e6%b5%b7%e6%b7%80%22%2c%22detailName%22%3a%22%22%2c%22url%22%3a%22%2fhouse-a00%2f%22%2c%22sort%22%3a1%7d%5d; Captcha=565778754464366F3136557A644C556259477767704D334E4F37783431497978657165764544395474336737653179312F554358594E52367A6B566A5232373549695265782B76703633733D; unique_cookie=U_tc13v239pj2xmb5t6dasouizw1nk79um3rd*4; __utma=147393320.411936847.1583116386.1583116386.1583119062.2; __utmz=147393320.1583119062.2.2.utmcsr=zu.fang.com|utmccn=(referral)|utmcmd=referral|utmcct=/; __utmt_t0=1; __utmt_t1=1; __utmt_t2=1; __utmb=147393320.3.10.1583119062',
'referer': 'https://zu.fang.com/',
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3947.100 Safari/537.36'}


session = requests.session()  #建立会话利用session长链接
session.headers = headers


def main():
	urls=['https://zu.fang.com/house-a0{}/'.format(i) for i in range(1,17)]
	for url in urls:
		get_index(url)

if __name__ == '__main__':
	main()
	session.close()

4.4爬取列表页,获取详细data
获取一个地区后
爬去每个地区的房子总页数
方便下一步迭代

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值