链家(beautifulsoup)

本文展示了一个使用Python的requests库和BeautifulSoup库抓取链家网站地铁沿线租房信息的爬虫实例。爬虫通过循环请求不同页面,解析HTML获取房源标题、位置、楼层、标签、价格及更新时间等详细信息。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

import requests
from bs4 import BeautifulSoup

for i in range(1,6):
    url = 'https://bj.lianjia.com/ditiezufang/rp%s/'%(i)

    response = requests.get(url)

    # with open('lianjia.html','wb') as f:
    #     f.write(response.content)

    # html = response.text
    # print(html)

    soup = BeautifulSoup(response.text, 'lxml')
    ul_tag = soup.find('ul', id="house-lst")
    # print(ul_tag)

    li_tags = ul_tag.find_all('li')
    # print(li_tags)

    for li_tag in li_tags:
        # print(li_tag)
        title = li_tag.select('div.info-panel > h2 > a')[0].text
        print(title)
        info = li_tag.select('div.where')[0].text
        print(info)
        info_lou = li_tag.select('div.con')[0].text
        print(info_lou)
        tags = li_tag.select('div.view-label')[0].text
        print(tags)
        price = li_tag.select('div.price')[0].text
        print(price)
        update_time = li_tag.select('div.price-pre')[0].text
        print(update_time)
        # page_num = li_tag.select('div.list-wrap > div > a:nth-child')[0].text
        # print(page_num)
        print('-'*50)
        # body > div.wrapper > div.main - box.clear > div > div.list - wrap > div > a: nth - child(5)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值