城市二手房房源信息爬虫https://github.com/oubahe/WuhanReptile

该项目是一个使用Python的简单静态网站爬虫,旨在爬取并保存武汉市所有二居室二手房信息到TXT文件。主要利用requests、beautifulsoup、json、multiprocessing和threading库,适合初学者学习。

说明:一个简单的静态网站爬虫
目的:爬取湖北省武汉市所有二居室二手房信息并保存至桌面
特点:request、beautifulsoup、json的基本使用,多进程和多线程爬取
适用:适合初学者的小项目
获取源代码或更好的修改建议请转至https://github.com/oubahe/WuhanReptile

玩玩爬取武汉链家二手房两房信息

import requests
import bs4
import json
from multiprocessing import Pool
from multiprocessing import Process
import threading

def get_url():
url=[]
url1=’https://wh.lianjia.com/ershoufang/l2/
url.append(url1)
page=[x for x in range(2,101)]
for i in page:
url.append(‘https://wh.lianjia.com/ershoufang/pg‘+str(i)+’l2/’)
return url

获取信息

def get_infor(url):
response = requests.get(url)
soup=bs4.BeautifulSoup(response.text,’lxml’)
##地址和房源名称信息
titles=soup.select(‘bod

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值