从头学习爬虫(二十八)python篇----requests库

本文介绍使用Python的requests库配合BeautifulSoup和lxml解析虎扑网站上的GIF图片及标题,并实现自动下载功能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

工具:python3

本文主要介绍requests第三方库,这个库可不是Python3内置的urllib.request库,而是一个强大的基于urllib3的第三方库。


实战虎扑gif封面

# -*- coding:UTF-8 -*-
from bs4 import BeautifulSoup
import requests
from urllib.request import urlretrieve
from lxml import etree
import os
import time

if __name__ == '__main__':
    url = 'http://photo.hupu.com/tag/gif'
    headers = {
            "User-Agent":"Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36"
    }
    req = requests.get(url = url,headers = headers)
    req.encoding = 'gb2312'
    html = req.text
    html1=etree.HTML(html)
    selector1=html1.xpath("//div[@class='piclist3']/table/tr/td/a/img/@src")
    selector2=html1.xpath("//div[@class='piclist3']/table/tr/td/dl/dt/a/text()")
    for se in range(0,len(selector1)):
        print('标题:',selector2[se],'  gif:',selector1[se])
        filename = selector2[se] + '.'+selector1[se].split('.')[len(selector1[se].split('.'))-1]
        print('下载:' + filename)
        if 'images' not in os.listdir():
            os.makedirs('images')
        img_url='http:'+selector1[se]
        urlretrieve(url =img_url ,filename = 'images/' + filename)
        time.sleep(1)



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值