requests爬取小猪租房--记录

使用Python requests库爬取小猪租房信息
本文记录了使用Python的requests库爬取小猪租房网站数据的过程,包括发送HTTP请求、解析HTML以及遇到的反爬策略和解决办法。
#!/usr/bin/env python
#-*- coding:utf-8 -*-

import requests,time
from bs4 import BeautifulSoup

headers = {
    "User-Agent":'Mozilla/5.0 (X11; U; Linux x86_64; zh-CN; rv:1.9.2.10) Gecko/20100922 Ubuntu/10.10 (maverick) Firefox/3.6.10'
}

class zfBase(object):
    '''基础设置'''
    def __init__(self,url=None):
        self.url = url
        self.run()

    def __url(self):
        global headers
        if self.url:
            html = requests.get(self.url,headers=headers)
            soup = BeautifulSoup(html.text,'lxml')
            return soup
        else:
            return '网址有误.'
    def run(self):
        return self.__url()

def getTagUrl(html):
    '''判断有多少待采集页面'''
    pageNums = html.select('#page_list > div.pagination_v2.pb0_vou > a')[-2].string
    return int(pageNums)

def zfSpider(listUrl):
    '''爬取详情页内容'''
    if isinstance(listUrl,list):
        for url in listUrl:
            html = zfBase(url).run()
            time.sleep(2)
            titles = html.select('div.pho_info > h4 > em')[0].string
            address = html.select('div.pho_info > p')[0]['title']
            money = html.select('div.day_l > span')[0].string
            onepic = html.select('img#curBigImage')[0]['src']
            peoplepic = html.select('div.member_pic > a > img')[0]['src']
            sex = html.select('div.member_pic > div')[0]['class']
            if 'member_ico' in sex:
                sex = '男'
            else:
                sex = '女'
            with open('xiaozhu.txt','a') as fp:
                fp.write(titles + '\t' + address + '\t' + money + '\t'
                         + sex  +'\t' + onepic + '\t' + peoplepic + '\n')
    else:
        print('URL错误')

def run(url):
    '''整体运行'''
    z = zfBase(url % 1)
    for num in range(1,getTagUrl(z.run()) + 1):
        z = zfBase(url % num).run()
        pageUrls = [pageUrl['href'] for pageUrl in z.select('a.resule_img_a')]
        time.sleep(2)
        zfSpider(pageUrls)

if __name__ == '__main__':
    run('http://bj.xiaozhu.com/search-duanzufang-p%s-0/?startDate=2018-01-01&endDate=2018-01-02')
使用 PyCharm 编写爬虫爬取微博 CORTIS - BigHit 官博页面并打开,可参考以下步骤进行。 首先,要确保已经安装了必要的库,例如`requests`,可以使用以下命令进行安装: ```bash pip install requests ``` 接着,在 PyCharm 中创建一个新的 Python 文件,以下是示例代码: ```python import requests # 微博 CORTIS - BigHit 官博页面的 URL url = 'https://weibo.com/xxx' # 请将这里替换为实际的官博页面 URL try: # 发送请求 response = requests.get(url) # 检查请求是否成功 if response.status_code == 200: # 打印网页内容 print(response.text) else: print(f"请求失败,状态码: {response.status_code}") except requests.RequestException as e: print(f"请求发生错误: {e}") ``` 需要注意的是,微博网站有反爬虫机制,在爬取数据时可能会遇到请求被拒绝的情况。为了应对这种情况,可以在请求头中添加一些信息来模拟浏览器访问,以下是改进后的代码: ```python import requests # 微博 CORTIS - BigHit 官博页面的 URL url = 'https://weibo.com/xxx' # 请将这里替换为实际的官博页面 URL # 模拟浏览器的请求头 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} try: # 发送请求并携带请求头 response = requests.get(url, headers=headers) # 检查请求是否成功 if response.status_code == 200: # 打印网页内容 print(response.text) else: print(f"请求失败,状态码: {response.status_code}") except requests.RequestException as e: print(f"请求发生错误: {e}") ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值