python 爬虫抓取页面图片

本文介绍了一个简单的Python脚本,用于从百度贴吧指定帖子中抓取并保存所有jpg格式的图片到本地目录。脚本通过正则表达式解析网页源代码,提取包含图片URL的img标签。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

# -*- coding: utf-8 -*-
#  path: D:/Python27/img/jpg.py

import re
import urllib
import os


#获取html页面的内容
def getHtml(url):
    cont = urllib.urlopen(url).read()
    return cont

#获取img标签的url
# String   html   html页面的内容
# String   dir    保存图片的目录,默认为当前目录
def getImg(html, dir):
    reg = r'class="BDE_Image" src="(.*?\.jpg)" size'
    imgre = re.compile(reg)
    imglist = re.findall(imgre, html)
    #目录不存在则创建
    cr_dir(dir)
    x = 0
    #下载图片
    for imgurl in imglist:
        urllib.urlretrieve(imgurl, dir+'\\%s.jpg' % x)
        x += 1
    print 'OK!'

#目录不存在则创建
def cr_dir(dir):
    if not os.path.exists(dir):
        os.makedirs(dir)


#获取html页面内容
url = 'http://tieba.baidu.com/p/5001852004?red_tag=t2336655710'
cont = getHtml(url)

#下载图片
getImg(cont, 'image')





评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值